Camada de enlace, de rede, de transporte, de Sessão, de Apresentação
Objetivos
- Compreender como os sistemas computacionais são interligados em redes LAN.
- Conhecer os protocolos mais comuns em rede LAN.
- Compreender como os sistemas computacionais são interligados em redes WAN.
- Conhecer os protocolos das redes WAN.
Introdução
Protocolos de comunicação são regras adotadas para estabelecer a comunicação entre computadores de uma rede local (LAN).
A delimitação de quadros e o controle de erros são as principais funções dos protocolos de acesso ao meio. Outra função normalmente realizada nesse nível é o controle de fluxo de transmissão no enlace (SOARES, 1995).
A padronização para os protocolos da camada de enlace foi desenvolvida pelo IEEE (padrão 802). Segundo Torres (2009), os protocolos IEEE 802 possuem três camadas, que equivalem às camadas 1e 2 do modelo RM-OSI. A camada 2 do Modelo RM-OSI é dividida em duas subcamadas no IEEE 802, que são a subcamada Controle do Link Lógico (LLC – Logic Link Control) e controle de acesso ao meio (MAC – Media Access Control).
Na avaliação dos protocolos de controle de acesso, segundo Soares (1995), os seguintes atributos devem ser levados em consideração:
- Capacidade: é a vazão máxima que o método de acesso pode tirar do meio, em percentagem de banda passante disponível. A taxa de transmissão, comprimento da rede, número de nós, tamanho do quadro, tamanho do cabeçalho e o retardo em cada estação são algumas das variáveis que afetam a capacidade.
- Justiça: é desejável na maioria das redes, a fim de permitir às estações o acesso aos recursos compartilhados. Implica simplesmente que a estação deverá ser tratada com igualdade dentro de sua classe de prioridade.
- Prioridade: é desejável em várias aplicações, principalmente naquelas que envolvem controle em tempo real.
- Estabilidade: é uma característica importante quando o carregamento da rede é pesado. Esquemas baseados em contenção têm sua estabilidade bastante dependente da realização, exigindo sofisticações no tratamento de conflitos para tornar o protocolo mais estável.
- Retardo de transferência: é a soma dos retardos de acesso e de transmissão. Essa variável é normalmente aleatória e de difícil mensuração. É determinada em função do protocolo de enlace e, algumas vezes, está diretamente ligada com o tipo de acesso ao meio.
Os métodos de acesso podem ser divididos em dois grandes grupos, que são os baseados em contenção e os ordenados sem contenção.
Acesso baseado em contenção
A rede baseada em contenção tem por princípio não ordenar os acessos ao meio e nada impede que dois ou mais elementos transmitam ao mesmo tempo, provocando o que é chamado de colisão. Toda vez que ocorre uma colisão, haverá perda de performance na rede. A estratégia de controle de contenção vai depender da habilidade que uma estação tem para detecção de colisão e retransmissão da mensagem.
Os tipos mais comuns desse modo de acesso são o Aloha , Slotted Aloh a, p-CSMA & np-CSMA, CSMA/CD, CSMA/CA, M-CSMA.
Aloha e Slotted Aloha
Esses métodos de acesso foram desenvolvidos para a rede Aloha, que lhe emprestou esses nomes (SOARES, 1995). Aloha era uma rede por radiodifusão que interligava terminais espalhados por todo o Havaí ao centro de computação da Universidade do Havaí. Embora não podendo ser considerada uma rede local, seu estudo é importante, pois ela foi o embrião para grandes
protocolos baseados em contenção.
De acordo com Soares (1995), a rede Aloha possui dois canais de rádio difusão, em que um deles é responsável pela difusão de pacotes do computador central para os terminais, e o outro faz o caminho contrário. Cada terminal só pode ouvir o canal que vem do computador central, não tendo condições de saber se o seu meio de transmissão está sendo usado ou não.
Ao transmitir, o terminal detecta a colisão se durante certo período de tempo, após o envio do pacote, ele não receber de volta um quadro de reconhecimento de transmissão. O computador central detecta a colisão se, durante a recepção, a mensagem se tornar inteligível pela sobreposição de pacotes.
Na transmissão entre o computador central e os terminais não ocorrem colisões, uma vez que quem acessa o canal é um único elemento, que é o próprio computador central.
Um modo simples de melhorar a utilização do canal de transmissão dos terminais é restringir o tempo que eles poderão começar a transmitir, sincronizando o tempo de todos eles. Com isso, consegue-se diminuir o tempo total gasto com informações inúteis presentes nos canais devido a colisões. Esse método é chamado de Slotted Aloha e praticamente dobra a eficiência do sistema anterior.
CSMA (Carrier Sense Multiple Access)
De acordo com Soares (1995), o protocolo CSMA tem seu princípio de funcionamento baseado no Aloha. Se uma estação deseja transmitir, primeiramente ela tem de verificar o estado do meio de transmissão. Dessa forma, a estação transmissora “ouve” antes o meio para observar se há ou não outras estações transmitindo. Caso não haja outras transmissões, a estação inicia a sua transmissão. Entretanto, se o meio estiver ocupado, a estação espera o meio ficar livre para transmitir.
Contudo, não há garantias de que se duas estações constatarem a inexistência de sinal de transmissão no meio, elas poderão iniciar a transmissão simultaneamente, o que irá gerar uma colisão. Nesse tipo de protocolo, as estações, após enviarem os dados, esperam por um tempo determinado para ver se não houve colisão. Nesse tempo é considerado o retardo de propagação de ida e volta (round-trip propagation delay) dos dados. O retardo de propagação de ida e volta é o tempo que um bit leva para se propagar da estação de origem à estação de destino multiplicado por dois. A não chegada dos bits implica uma colisão.
Havendo a colisão, a rede é parada. Os terminais que estavam transmitindo abortam a comunicação e começam a contar números aleatórios; o que acabar primeiro tenta novamente a transmissão.
Várias estratégias foram desenvolvidas para aumentar a eficiência da transmissão: np-CSMA (non-persistent carrier sense multiple access) e o p-CSMA (persistent carrier sense multiple access). As duas primeiras exigem o reconhecimento do positivo de uma mensagem para detectar a colisão; a última, não (SOARES, 1995).
No p-CSMA, se ao escutar o meio, um nó “sentir” uma transmissão, ele continua a escutar o meio até que ele fique livre. Aí então ele tenta transmitir.
No np-CSMA, se ao escutar o meio, um nó “sentir” que está havendo uma transmissão, ele fica esperando por um intervalo de tempo aleatório antes de tentar novamente o acesso.
O algoritmo não persistente (np-CSMA) é eficiente para evitar colisões, uma vez que duas estações querendo transmitir, quando o meio está ocupado, provavelmente vão esperar por intervalos diferentes de tempo (aleatórios). O problema é que pode existir um tempo perdido (canal livre, tendo dados a transmitir) após cada transmissão, o que não acontece com o algoritmo 1-persistente (p-CSMA), que elimina esse tempo perdido, mas infelizmente aumenta a probabilidade de colisão. Essas estratégias vão permitir, em tráfego baixo, uma capacidade de utilização do meio em torno de 85%. Já em tráfego pesado, todas as duas estratégias vão exibir uma instabilidade, no sentido de terem uma grande taxa de colisão e um grande retardo.
CSMA/CD
O protocolo CSMA/CD, que foi desenvolvido pela Xerox, recebeu o nome de Ethernet e formou a base para o padrão IEEE 802.3. Ele identifica quando o meio está disponível (idle time) para a transmissão. Nesse momento a transmissão é iniciada. O mecanismo CD (collision detection ou, em português, detecção de colisão) ao mesmo tempo obriga que os nós escutem a rede enquanto emitem dados, razão pela qual o CSMA/CD é também conhecido por “listen while talk“ (traduzido como “escute enquanto fala”). Se uma colisão é detectada, toda transmissão é interrompida e é emitido um sinal “jam” (de 48 bits) para anunciar que ocorreu uma colisão. Para evitar colisões sucessivas, o nó espera um período aleatório e volta a tentar transmitir.
A qualquer instante de tempo a Ethernet deve estar em um dos três estados: transmitindo um bit 0, um bit 1 ou estar ociosa. Dessa forma, um sistema empregando CSMA/CD deverá encontrar-se em um desses três estados. Quaisquer estados além desses indicam uma colisão.
Comparado com os métodos anteriores, o CSMA/CD, de acordo com Soares (1995), possui a vantagem de detectar a colisão durante a transmissão e abortá-la imediatamente. Nos métodos anteriores, mesmo havendo a colisão, as estações continuarão a transmitir. São as seguintes as técnicas de retransmissão após colisão:
- Retransmissão exponencial truncada (truncated exponential back off): Quando a estação detecta uma colisão, aguarda por um tempo aleatório entre 0 (zero) e 1 (um) limite superior para tentar nova transmissão. Dessa forma, reduz-se a probabilidade de que a mesma colisão ocorra novamente. A cada colisão sucessiva o limite superior é dobrado sendo esse processo interrompido em algum ponto. Após um certo número de retransmissões malsucedidas a transmissão é abortada.
- Retransmissão ordenada (ordered back off): Após a detecção de uma colisão, as estações somente poderão iniciar sua transmissão em um intervalo de tempo previamente alocado para elas, sendo que se uma estação não o fizer, esse tempo será imediatamente destinado à próxima estação.
CSMA/CA (Carrier Sense Multiple Access with Collision Avoidance)
Esse método é um melhoramento do anterior, tentando evitar ao máximo as colisões. Aqui, depois de cada transmissão, segundo Soares (1995), havendo ou não colisão, a rede passa a operar em um modo no qual as estações só podem começar a transmitir em determinados intervalos de tempo predefinidos, reduzindo a zero as chances de colisão.
Cada estação só pode transmitir no intervalo de tempo reservado para ela. Se nesse instante a estação não estiver pronta para transmitir, o direito de transmissão passa para a estação alocada ao intervalo seguinte, e assim por diante, até que ocorra outra transmissão. No caso de nenhuma estação transmitir, a rede passa a utilizar o método CSMA comum para o acesso, podendo, nesse
caso, ocorrer colisão novamente. Após a transmissão o processo se reinicia e o algoritmo volta a definir os intervalos de transmissão de cada estação.
Existem três variações desse método. Na primeira variação, quando nenhuma estação estiver transmitindo, aquela que possui o primeiro intervalo de alocação de tempo emite um quadro vazio, sem conteúdo algum, com o objetivo apenas de reiniciar o processo. Todos terão então a sua oportunidade de transmitir, e o algoritmo volta para o caso anterior. A segunda variação impõe que se uma estação acabou de transmitir, ela só poderá o fazer novamente depois que todas as outras estações tiverem tido a sua oportunidade. Essa medida torna o acesso mais justo e impede que uma estação de menor prioridade seja impedida de transmitir. A terceira variação desse método estabelece que, depois de cada transmissão, o direito de transmitir passa a ser daquela estação de destino; porém, se ela não transmitir, a passagem da permissão segue a sequência normal. Esse esquema permite um diálogo entre duas máquinas, uma vez que elas poderiam monopolizar o canal enquanto estivessem trocando informações.
Acesso ordenado sem contenção
Nesse método os acessos ao meio físico são ordenados, evitando o problema da colisão. Os tipos mais comuns são: Token Bus, Token Ring, Polling e Slot.
Token (passagem de permissão)
Nesse tipo de esquema de controle, uma permissão (Token) – um padrão especial – é passada sequencialmente de uma estação para outra. Somente a interface que possui a permissão (o Token) em um determinado instante de tempo pode transmitir quadros. A ordem lógica de transmissão não é necessariamente a ordem física, embora nas topologias em anel geralmente o seja (SOARES, 1995).
Em algumas redes a permissão não é um padrão especial, mas simplesmente a presença ou ausência de transmissão faz avançar um ponteiro, interno a cada estação, que indicará a próxima estação a transmitir. A passagem de Token usada em redes do tipo anel é chamada Token Ring. Se o controle de acesso for utilizado em redes estruturadas em barramentos, estas serão chamadas de Token Bus, que funcionam simulando um anel virtual.
Polling
De acordo com Soares (1995), o acesso por polling é geralmente usado na topologia em barra comum. Nesse método as estações só transmitem quando interrogadas pelo controlador da rede, que é uma estação centralizadora. Ao ser perguntado, e tendo algo a transmitir, a estação responderá afirmativamente; assim o controlar disponibilizará o meio para ela, retomando-o assim que acabar o período de transmissão da estação, reiniciando o processo de pergunta a outras estações que estão em uma lista sequencial armazenada no controlador. Não tendo nada a transmitir, a estação responde negativamente, e o controlador passa a perguntar à próxima estação.
Slot
Nesse método, de acordo com Soares (1995), o espaço de comunicação é dividido em pequenos segmentos, chamados de slots, onde as mensagens poderão ser armazenadas. Cada slot possui no campo de identificação, um bit, que identifica se ele está cheio ou vazio. Ao querer transmitir, cada estação espera por um slot vazio para preenchê-lo com sua mensagem; o numero de slots na rede nunca muda.
Padrão IEEE 802
A camada de enlace do RM-OSI foi dividida em duas subcamadas na arquitetura proposta no padrão IEEE 802: a camada MAC, responsável pelo controle do acesso à rede, e a camada LLC, responsável pela realização das funções de multiplexação, controle de erro e de fluxo no enlace. O padrão IEEE 802 foi dividido em:
- padrão IEEE 802.1: descreve o relacionamento entre os diversos padrões IEEE 802 e o relacionamento deles com o modelo de referência OSI;
- padrão ANSI/IEEE 802.2 (ISO 8802/2): descreve a subcamada superior do nível de enlace, que utiliza o protocolo Logical Link Control Protocol;
- padrão IEEE 802.3 (ISO 8802/3): descreve a utilização do protocolo CSMA/CD em uma rede em barra como método de acesso. O padrão fornece a especificação necessária para redes em banda básica operando em 1 e 10 Mbps, e para redes em banda larga, operando a 10 Mbps;
- padrão IEEE 802.4 (ISO 8802/4): descreve o funcionamento de uma rede em barra com sinalização em banda larga utilizando a passagem de permissão como método de acesso (Token Bus);
- padrão IEEE 802.5 (ISO 8802/5): descreve o funcionamento de uma rede em anel utilizando passagem de permissão como método de acesso (Token Ring). O padrão provê a especificação necessária para redes em banda básica, operando em 4 Mbps ou 16 Mbps, utilizando como meio de transmissão o par trançado;
- padrão IEEE 802.6 (ISO 8802/6): para uma rede em barra utilizando o distributed queue dual bus (DQDB) como método de acesso. Segundo definição do grupo IEEE 802.6, “o propósito de uma rede metropolitana não é prover serviços integrados, tais como texto, voz e vídeo, em uma grande área geográfica. DQDB é uma sub-rede que pode ser usada como uma parte componente de uma MAN. Tipicamente, uma MAN consiste em sub-redes DQDB interconectadas”. A interconexão das sub-redes não faz parte do padrão.
Protocolos de rede
De acordo com Paiossin (2010), as sete camadas do modelo RM-OSI podem ser dispostas em três grupos: Aplicação, Transporte e Rede, como se pode ver na Figura Agrupamento do modelo RM-OSI a seguir.
Ainda de acordo com Paiossin (2010), esses grupos podem ser assim definidos:
- Rede: as camadas deste grupo são de baixo nível, que lidam com a transmissão e recepção dos dados da rede.
- Transporte: essa camada é responsável por pegar os dados recebidos da rede e transformá-los em um formato compreensível pelo programa. Quando seu computador está transmitindo dados, ela pega os dados e os divide em vários pacotes para serem transmitidos pela rede. Quando seu computador está recebendo dados, ela pega os pacotes recebidos e os coloca em ordem.
- Aplicação: essas são as camadas mais altas que colocam os dados no formato usado pelo programa.
Funções dos protocolos de rede
Uma das funções dos protocolos rede é dividir os dados, ou mensagens, que serão transmitidos pela rede, em pacotes. Chegar ao destino pode exigir a passagem dos pacotes por vários hops (saltos) em nós intermediários ao longo do percurso. Essa função contrasta claramente com a função da camada de enlace de dados, que tem o objetivo mais modesto de apenas mover quadros de uma extremidade de um fio até a outra. Portanto, a camada de rede e a camada mais baixa que lida com a transmissão fim a fim (TANENBAUM, 2003).
Os pacotes contêm informações de endereçamento que informam a sua origem e o seu destino. Basicamente são as seguintes, as funções do protocolo de rede:
- endereçamento: especificação clara do ponto de destino da mensagem;
- estabelecimento da conexão: estabelecimento de um canal lógico fechado entre fonte e destino;
- confirmação de recepção: confirmação do destinatário, com ou sem erro, após cada segmento de mensagem;
- controle de erro: detecção e correção de erros;
- controle de fluxo: manutenção de fluxos compatíveis com os recursos disponíveis.
A seguir serão apresentados alguns desses protocolos.
Protocolo NetBEUI/NetBIOS
O NetBEUI, network basic input/output system (NetBIOS) extended user interface é uma espécie de “vovô protocolo”, pois foi lançado pela IBM no início da década de 1980, para ser usado junto com o IBM PC Network, um micro com configuração semelhante à do PC XT, mas que podia ser ligado em rede. Naquela época, o protocolo possuía bem menos recursos e era chamado de NetBIOS. O nome NetBEUI passou a ser usado quando a IBM estendeu os recursos do NetBIOS, formando a versão final do protocolo. No jargão técnico atual, usamos o termo “NetBEUI” quando nos referimos ao protocolo de rede em si e o termo “NetBIOS” quando queremos nos referir aos comandos desse mesmo protocolo usado pelos programas para acessar a rede (MORIMOTO, 2008).
Ele foi produzido para ser usado em redes locais (LANs) utilizando o endereço físico (MAC) da placa de rede e tendo como principal função a interligação física de máquinas em redes locais. Dessa maneira, ele é um protocolo não roteável, ou seja, não descobre rotas. Trabalhando com endereço físico da placa, ele atua também na camada de Controle de Link Lógico (LLC) do modelo OSI. É pelo protocolo LLC que se realizam códigos e protocolos voltados ao meio (hardware), endereços físicos, controle de fluxos dos frames e transferência de dados com ou sem garantias de conexão.
Protocolo NetBIOS
O protocolo NetBIOS (Network Basic Input/Output System) é uma interface para programação de aplicações distribuídas (SOARES, 1995).
O NetBIOS, é um protocolo legado e um sistema de nomeação utilizado para a compatibilidade com serviços de rede Windows mais antigos (ou seja, ainda se encontra presente em várias e várias redes espalhadas pelo mundo), e como um bom administrador, é seu papel saber configurar, gerenciar e solucionar problemas de resolução de nomes NetBIOS. O NetBIOS fornece a única resolução de nomes (tradução de endereço IP para nome) no Windows que funciona por padrão em uma rede IPv4 sem DNS (ROMERO JÚNIOR, 2011).
Protocolo IPX/SPX
Segundo Torres (2009), o IPX/SPX é um protocolo proprietário, desenvolvido pela Novell como padrão para redes netware. Ele é composto de dois protocolos, que são o IPX (Internetwork Packet Exchange), que atua na camada 3 do modelo OSI, e o SPX (Sequenced Packet Exchange), que é um protocolo de transporte (camada 4) confiável que usa o IPX para o envio. É um protocolo do tipo cliente/servidor, em que todas as transações entre máquinas são autenticadas e verificadas pela máquina servidora netware, mesmo que a informação esteja em outra máquina cliente.
Protocolo IPX
De acordo com Torres (2009), assim como o protocolo IP, o protocolo IPX é roteável e trabalha na camada 3 do modelo OSI, estabelecendo a parte lógica da arquitetura e proporcionando as funções de rede. Sua finalidade é endereçar os elementos da rede e descobrir os caminhos entre o destino e a origem para o envio dos dados. Seu endereçamento é uma combinação de um endereço de rede e do endereço da placa de rede (MAC). A parte de rede é um número hexadecimal de 32 bits representado numa cadeia de caracteres de 64 bits. Na maioria das vezes, a parte de rede está associada ao servidor netware ou roteador. Uma máquina cliente netware obterá essa parcela de endereçamento a partir do servidor ou do roteador, durante a fase de inicialização e a associará ao endereço de hardware existente (MAC). Se não existir um servidor netware, então o roteador alimentará a rede com essa informação; caso contrário, a identidade IPX ficará limitada à rede local através do endereço físico.
Se os dois pontos estiverem fisicamente na mesma rede (fazem parte de uma rede LAN), eles podem se comunicar apenas pelo endereço físico, sem ter que se preocupar com o endereço de rede. Se o destino é uma máquina de uma rede remota, em que os pontos fazem parte de uma rede WAN, então o dado é direcionado para o roteador e este tratará do envio para o segmento de rede adequado.
Protocolo SPX
Para Torres (2009), o protocolo SPX (Sequenced Packet Exchange) trabalha na camada 4 (transporte) do modelo RM-OSI, em uma conexão fim a fim. Ele é um protocolo de transporte confiável que usa o IPX para o envio, ou seja, ele é encapsulado no protocolo IPX. Na transmissão de dados do protocolo IPX/SPX, o IPX tem a função de descobrir o caminho entre a origem e o destino, ao passo que o SPX mantém esse caminho ativo enquanto houver troca de informação. O SPX trata esse caminho, ou a conectividade, como circuitos virtuais, que proporcionam conexões entre aplicações através do IPX. O tratamento de erros e de reenvio é feito por janelas.
Protocolo Ethernet
Segundo Paiossin (2010), o protocolo Ethernet é uma tecnologia de interconexão para redes locais baseada no envio de quadros. Ela define cabeamento e sinais elétricos para a camada física, e formato de pacotes e protocolos para a camada de controle de acesso ao meio através do endereço MAC e da detecção e correção de erros atuando no protocolo LLC.
O protocolo Ethernet é descrito pelo padrão IEEE 802.3, tendo como padrões atuais os seguintes:
- 10 Megabits/seg: IEEE 802.3 – Ethernet.
- 100 Megabits/seg: IEEE 802.3u – Fast Ethernet.
- 1 Gigabits/seg: IEEE 802.3z – Gigabit Ethernet.
- 10 Gigabits/seg: IEEE 802.3ae – 10 Gigabit Ethernet.
- 40/100 Gigabits/seg: IEEE 802.3ba – 40/100 Gigabit Ethernet.
A descrição da funcionalidade das tecnologias mais usadas dos padrões Ethernet é mostrado a seguir.
Endereçamento Ethernet
A identificação dos elementos na rede é feita pelo endereço único MAC ou “endereço físico”. Os endereços MAC possuem 48 bits e são únicos por construção; isso significa que quando um fabricante constrói uma placa de rede Ethernet, ela recebe um endereço único determinado por hardware. O conjunto de endereços MAC forma um espaço plano (flat address space). O padrão Ethernet possui três tipos de endereçamento (RODRIGUES, 2011):
- Endereço Unicast: realiza uma comunicação ponto a ponto, ou seja um pacote vai para um destino único).
- Endereço de Difusão: é o endereço FF-FF-FF-FF-FF-FF. O pacote enviado para ele é recebido por todas as estações.
- Endereço de Multicast: é recebido por múltiplos destinos, mas não todos, da rede, que formam o grupo multicast. Os endereços de Multicastiniciam com um bit igual a 1.
Acesso ao meio físico de transmissão pelo protocolo Ethernet
O acesso ao meio físico do protocolo Ethernet é feito pelo método CSMA (Carrier Sense Multiple Access). De acordo com Comer (2006), como o protocolo Ethernet trabalha na camada de enlace, suas informações são transmitidas em quadros entre computadores, através da rede local. Esse quadro possui um cabeçalho, informando a origem, o destino, quais dados estão sendo transmitidos, além de outras informações úteis. A Figura Quadro Ethernet mostra o quadro Ethernet.
Protocolos mais utilizados em redes WAN
As redes WAN tornaram-se necessárias devido ao crescimento das empresas e as limitações das redes LAN, que não conseguem atender à demanda por troca de informações entre pontos geograficamente distribuídos. As opções de escolha dos serviços e suporte para redes WAN tiveram um aumento considerável nos últimos anos. A seguir apresentaremos vantagens e desvantagens de alguns serviços WAN mais importantes, desde ligação telefônica de modem, passando por linhas dedicadas, e X.25, até as mais recentes tecnologias de PPP, ADSL, Frame Relay, ISDN e ATM.
Ligação telefônica
As linhas de telefônicas analógicas convencionais suportam tráfico de dados, mas como elas foram concebidas inicialmente para transportar voz, não dados, equipamentos moduladores e demoduladores (modems) devem ser usados para converter sinais analógicos em digitais e vice-versa. As linhas analógicas estão, no entanto, limitadas na velocidade e qualidade do serviço (SANTOS, 1997).
Linha dedicada
A linha dedicada, ou linha privativa de comunicação de dados (LPCD) fornece uma conexão permanente entre dois pontos. As linhas dedicadas digitais são o método preferível para ligar computadores, porque fornecem uma grande qualidade de comunicação e facilitam para as empresas de telecomunicações a resolução de avarias. As velocidades das linhas dedicadas vão desde 9.6 Kbps até 45 megabits por segundo (Mbps) (SANTOS, 1997).
As LPCDs podem ser analógicas ou digitais e, em qualquer um dos casos, elas necessitam de equipamentos moduladores e demoduladores (modems) que devem ser digitais ou analógicos, conforme o método escolhido.
X.25
De acordo com Soares (1995), para evitar que redes WAN desenvolvessem interfaces diferentes de acesso, o ITU-T propôs, em 1974, o padrão de implementação da Novell, físico de enlace e de rede para ligação DTE-DCE. Esses padrões ficaram conhecidos como X-25 PLP, ou simplesmente X-25(SOARES, 1995).
DTE (Data Terminal Equipment ou equipamento de terminação de dados) Tem a função de preparar a informação a ser enviada/recebida pela linha de comunicação. Normalmente os computadores são classificados como DTE.
DCE (Data Communications Equipment ou equipamento de comunicação de dados) É o responsável por realizar a comunicação dos dados. Normalmente os moduladores e demoduladores (modems) são classificados como DCE.
É o responsável por realizar a comunicação dos dados. Normalmente os moduladores e demoduladores (modems) são classificados como DCE.
De acordo com Soares (1995), as redes X.25 fornecem serviços de circuito virtual connection-oriented com correção de erros e retransmissão. Duas formas de conexão são possíveis: os circuitos virtuais permanentes (conexões preestabelecidas) e as virtuais (conexões alocadas em tempo de comunicação). No estabelecimento de uma conexão, recursos especiais (facilidades) para a conexão podem ser negociados. Uma vez estabelecida a conexão, os dados podem ser trocados nas duas direções. Qualquer um dos lados pode encerrar a conexão.
O protocolo SLIP
SLIP (Serial Line Internet Protocol) é um padrão de comunicação ponto a ponto entre conexões seriais. O SLIP é normalmente empregado em conexões seriais dedicadas e algumas vezes em conexões discadas (TAROUCO, 212).
A transmissão de dados no SLIP é muito simples, pois ele envia um pacote composto unicamente dos dados seguidos de um caractere de fim de transmissão (caractere END), não possuindo controle de endereço e de erros.
Protocolo PPP
De acordo com Tarouco (2012), o PPP (Point-to-Point Protocol) é um protocolo para transmissão de pacotes através de linhas seriais. Ele suporta linhas síncronas e assíncronas. O PPP é projetado para transportar pacotes através de uma conexão entre dois pontos. A conexão entre os pontos deve prover operação full-duplex sendo assumido que os pacotes são entregues em ordem. Essas características são desejadas para que o PPP proporcione uma solução comum para a conexão de uma grande variedade de hosts.
O PPP é composto de três protocolos (TAROUCO, 2012):
- Protocolo encapsulado de datagramas.
- Protocolo de controle de ligação (LCP – Link Control Protocol), permitindo controles de teste e configuração da comunicação.
- Protocolo de controle de rede (NCP – Network Control Protocol), permitindo controles de integração PPP em protocolos de camadas superiores.
Uma sessão PPP (da abertura ao encerramento) desenrola-se do seguinte modo (TAROUCO, 2012):
- quando da conexão, um pacote LCP é enviado;
- no caso de pedido de autenticação por parte do servidor, um pacote que corresponde a um protocolo de autenticação pode ser enviado (PAP, Password Autentication Protocol, ou CHAP, Challenge Handshake Autentication Protocol ou Kerberos);
- uma vez a comunicação estabelecida, o PPP envia informações de configuração graças ao protocolo NCP;
- os datagramas (dados) são transmitidos sob a forma de pacotes;
- no momento da desconexão, um pacote LCP é enviado para terminar a sessão.
ADSL (Asymmetric DSL):
A Linha Digital Assimétrica de Assinante (ADSL – Asymetric Digital Subscriber Line) é uma nova tecnologia baseada em modems que convertem linhas de telefones de par trançado comuns existentes em caminhos de acesso para multimídia e comunicações de dados de alta velocidade. ADSL permite transmissões de mais de 6 Mbps (chegando ao máximo, hoje, de 9 Mbps) de download para um assinante, e chegando à 640 kbps (máximo de 1 Mbps) para upload. Tais taxas ampliam a capacidade de acesso existente para um fator de 50 ou mais sem a utilização de cabeamento público novo (QUINTAS JÚNIOR et al., 2012).
A ADSL trabalha dividindo um único canal telefônico em varias frequências, usando mais de uma frequência ao mesmo tempo, permitindo o uso do canal para voz e dados ao mesmo tempo. Nessa situação, o ADSL divide a linha telefônica do assinante em três canais virtuais: um para voz, um para download e um para upload, lembrando que existe uma assimetria entre o download (velocidade maior) e o upload (velocidade menor). Para separar voz de dados na linha telefônica, de acordo com Quintas Júnior et al., 2012, é instalado na linha do usuário um pequeno aparelho chamado splitter. Nele é conectado um cabo que sai do aparelho telefônico e outro que sai do modem. Na central telefônica também há uma espécie de splitter. Assim, quando se realiza uma chamada telefônica (voz), o sinal é encaminhado para a rede de comutação de circuitos da companhia telefônica (PSTN – Public Switched Telephone Network) e prossegue pelo seu caminho habitual. Quando a internet é utilizada, o sinal é encaminhado ao DSLAN. Normalmente o sistema ADSL utiliza os protocolos PPPoE (Point to Point Protocol over Ethernet) e o PPPoA (Point to Point Protocol over ATM).
HDSL (High-Bit-Rate DSL)
A tecnologia HDSL (High-Bit-Rate DSL) foi desenvolvida para o mercado empresarial, com o objetivo de utilizar menos largura de banda e conseguir transmitir, em modo simétrico e bidirecional, a altas taxas de transmissão de dados, sobre o par trançado comum sem necessitar de repetidores de sinal (NUNES, 2006).
Frame relay
Segundo Brito (1999), o frame relay é uma tecnologia de chaveamento baseada em pacotes que foi desenvolvida visando prover ao usuário uma rede privativa virtual (VPN) capaz de suportar aplicações que requeiram altas taxas de transmissão.
O frame relay, de acordo com Brito (1999), trabalha com quadros que são derivados do HDLC, onde as funções de endereçamento e controle (reduzido) estão em um mesmo campo. Configurado dessa forma, ele permite que um ponto se comunique com vários outros e, em vez de alocar uma faixa fixa da banda, o frame relay toma toda a banda para realizar transmissões curtas. A transmissão está baseada no par dispositivo de rede e de usuário. Os quadros são construídos pelo usuário remetente e entregues à rede para serem transmitidos ao usuário destinatário. Na Figura Frame relay – controle do usuário e da rede são mostrados um quadro do usuário remetente e um quadro da rede.
A característica do frame relay é trabalhar com velocidades variáveis, e uma taxa mínima de transmissão deve ser garantida pela concessionária de telefonia.
De posse desse dado, de acordo com Brito (1999), elas configuram os seguintes componentes do serviço frame relay:
- linha de acesso ao fornecedor de serviço;
- permutador frame relay de variação da velocidade;
- taxa de informação mínima combinada (CIR – commited information rate) para cada circuito virtual permanente (PVC – permanent virtual circuit).
Essas configurações determinarão a velocidade média e a velocidade máxima de transmissão, ou seja, a velocidade com a qual os dados entram na rede e a velocidade máxima dos bursts. Para cada PVC que se especifica entre dois pontos na rede, é feito um CIR. O fornecedor de serviço frame relay garante a entrega de CIR sobre o PVC sempre.
ISDN
ISDN (integrated services digital network) ou também RDSI (Rede Digital de Serviços Integrados) é um serviço disponível em centrais telefônicas digitais, que permite acesso à internet e baseia-se na troca digital de dados, em que são transmitidos pacotes por multiplexagem (possibilidade de estabelecer várias ligações lógicas numa ligação física existente) sobre condutores de par trançado (ALECRIM, 2003).
Pelo menos dois serviços estão normalmente disponíveis no ISDN, que são a taxa básica (BRI) e taxa primária (PRI).
Acesso básico BRI do ISDN
Para Alecrim (2003), a interface de taxa básica BRI (basic rate interface) é o serviço mais comum do ISDN. Ele consiste em dois canais de 64 Kbps (canais B) e um canal de sinalização de 16 Kbps (canal D) para uma taxa de dados máxima (antes de compressão) de 128 Kbps (ou 144 Kbps se o canal D for usado para transmissão de dados). Enquanto 2B+D é um padrão de serviço BRI, alguns fornecedores de serviço oferecem outras combinações, tais como um canal D ou dois canais B sem o canal D.
Acesso primário PRI do ISDN
A interface de taxa primária (PRI), de acordo com Alecrim (2003), é uma interface com grande largura de banda e é usada normalmente em sites centrais para agregar conexões BRI, ou em aplicações onde se requer uma largura de banda superior a 128 Kbps. Normalmente os serviços PRI estão menos disponíveis que os serviços BRI, por causa do custo e largura de banda. Nos Estados Unidos e no Japão, a PRI consiste em 23 canais B e um canal D; na Europa e no resto do mundo consiste em 30 canais B e um canal D. O canal D para as operações PRI opera a 64 Kbps, como fazem todos os canis B para um total de aproximadamente 1.5 Mbps nos USA e no Japão, ou 2.0 Mbps na Europa e no resto do mundo.
A combinação entre BRI e PRI é muito poderosa para a construção de redes com um site central e muitos sites distribuídos. Através do uso de um simples PRI no site central e de linhas BRI em sites remotos, o site central pode comunicar simultaneamente com até 23 ou 30 sites remotos.
ATM
O modo de transferência assíncrono ATM (Assynchronous Transfer Mode), de acordo com Soares (1995), é uma tecnologia baseada na transmissão de pequenas unidades de informação de tamanho fixo e formato padronizado, denominado células. As células são transmitidas através de circuitos virtuais, encapsulados no meio físico, e o encaminhamento é baseado no cabeçalho contido na célula. Cada canal virtual é identificado com um numero de 24 bits, possibilitando 16.777.216 canais virtuais para cada meio físico (22).
A Figura Modelos ATM em camadas ilustra as camadas do modelo de referência ATM, definido pelo ITU-T (International Telegraph Union), comparado com o modelo OSI. O modelo de referência ATM, de acordo com Soares (1995), foi definido pela recomendação I.321.
As funções das camadas do modelo de referência ATM são:
- Física: provê os meios para transmitir as células ATM. A subcamada TC (transmission convergence) mapeia as células ATM no formato dos frames da rede de transmissão (SDH, SONET, PDH, etc.). A subcamada PM (physical medium) temporiza os bits do frame de acordo com o relógio de transmissão.
- ATM: é responsável pela construção, processamento e transmissão das células, e pelo processamento das conexões virtuais. Essa camada também processa os diferentes tipos e classes de serviços e controla o tráfego da rede. Nos equipamentos de rede, essa camada trata todo o tráfego de entrada e saída, minimizando o processamento e aumentando a eficiência do protocolo sem necessitar de outras camadas superiores.
- AAL: é responsável pelo fornecimento de serviços para a camada de aplicação superior. A subcamada CS (convergence sublayer) converte e prepara a informação de usuário para o ATM, de acordo com o tipo de serviço, além de controlar as conexões virtuais. A subcamada SAR (segmentation and reassembly) fragmenta a informação para ser encapsulada na célula ATM. A camada AAL implementa ainda os respectivos mecanismos de controle, sinalização e qualidade de serviço.
De acordo com Torres (2009, o padrão ATM trabalha com um pacote de tamanho fixo denominado célula (cell). Uma célula possui 53 bytes, sendo 48 para a informação útil e cinco para o cabeçalho. Cada célula ATM enviada para a rede contém uma informação de endereçamento que estabelece uma conexão virtual entre origem e destino.
Segundo Torres (2009), o campo de cabeçalho carrega as informações de controle do protocolo. Devido a sua importância, possui mecanismo de detecção e correção de erros para preservar o seu conteúdo. Ele é composto por cinco bytes com as seguintes informações:
- VPI (virtual path identifier), com 12 bits, representa o número da rota virtual até o destinatário da informação útil, e tem significado local apenas para a porta de origem. Nas conexões UNI o VPI pode ainda ser dividido em dois campos: o GFC (generic flow control), com quatro bits, que identifica o tipo de célula para a rede, e o VPI propriamente dito, com oito bits.
- VCI (virtual channel identifier), com 16 bits, representa o número do canal virtual dentro de uma rota virtual específica. Também se refere ao destinatário da informação útil e tem significado local apenas para a porta de origem.
- PT (payload type), com três bits, identifica o tipo de informação que a célula contém: de usuário, de sinalização ou de manutenção.
- CLP (cell loss priority), com um bit, indica a prioridade relativa da célula. Células de menor prioridade são descartadas antes que as células de maior prioridade durante períodos de congestionamento.
- HEC (header error check), com oito bits, é usado para detectar e corrigir erros no cabeçalho. O campo de informação útil, com 384 bits (48 bytes) carrega as informações de usuário ou de controle do protocolo. A informação útil é mantida intacta ao longo de toda a rede, sem verificação ou correção de erros. A camada ATM do protocolo considera que essas tarefas são executadas pelos protocolos das aplicações de usuário ou pelos processos de sinalização e gerenciamento do próprio protocolo para garantir a integridade desses dados.
- Quando é informação de usuário, o conteúdo desse campo é obtido a partir da fragmentação da informação original.
- Quando a informação é de controle do protocolo, o primeiro byte é usado como campo de controle, e os demais bytes contêm informação de sinalização, configuração e gerenciamento da rede.
VCircuitos virtuais ATM
Como já foi dito, as células ATM são transmitidas através de conexões com circuitos virtuais, onde uma rota é estabelecida no momento da conexão, sendo que seu encaminhamento baseado nas informações do cabeçalho (os cabeçalhos contêm um campo identificador do circuito virtual). Esses circuitos virtuais são implementados, segundo Torres (2009), utilizando os seguintes conceitos:
- TP (transmission path): é a rota de transmissão física (por exemplo, circuitos das redes de transmissão SDH/SONET) entre dois equipamentos da rede ATM.
- VP (virtual path): é a rota virtual configurada entre dois equipamentos adjacentes da rede ATM. O VP usa como infraestrutura os TPs. Um TP pode ter um ou mais VPs. Cada VP tem um identificador VPI (virtual paths identifier), que deve ser único para um dado TP.
- VC (virtual channel): é o canal virtual configurado também entre dois equipamentos adjacentes da rede ATM. O VC usa como infraestrutura o VP. Um VP pode ter um ou mais VCs. Cada VC tem um identificador VCI (virtual channel identifier), que também deve ser único para um dado TP.
Baseados nos conceitos acima descritos, pode-se definir dois tipos de conexões virtuais no modelo ATM:
- VPC (virtual paths connection): é a conexão de rota virtual definida entre dois equipamentos de acesso ou de usuário. Uma VPC é uma coleção de VPs configuradas para interligar origem e destino.
- VCC (virtual channel connection): é a conexão de canal virtual definida entre dois equipamentos de acesso ou de usuário. Uma VCC é uma coleção de VCs configuradas para interligar origem e destino.
Fim da aula 06