Redes

Redes

(Parte 1 de 6)

Introdução a Redes de Computadores

SUMÁRIO

INTRODUÇÃO 4

Capitulo 1 - Princípios da Comunicação 5

1.1 - Evolução dos Sistemas de Computação 5

1.2 - Evolução das Arquiteturas 6

1.3 - Redes de Computadores 11

1.3.1 - Redes Locais ( Local Area Networks - LANs) 11

1.3.2 - Redes Geograficamente Distribuídas (Wide Area Networks - WANs) 12

1.3.3 - Características para implantação de Redes de Computadores 13

Capítulo 2 - TOPOLOGIAS 17

2.1 - Linhas de Comunicação 18

2.2 - Redes Geograficamente distribuidas 19

2.3 - Topologia Parcialmente Ligada 22

2.4 - Redes Locais Metropolitanas 24

Capítulo 3 - Meios Físicos de Transmissão 33

3.1 - Par Trançado 33

3.2 - Cabo Coaxial 35

3.4 - Fibra Ótica 36

3.5 - Outros meios de transmissão 38

3.6 - Ligações ao meio 39

Capítulo 4 - Roteamento e Roteadores 42

4.1 - Roteamento 42

4.2 - Roteadores 44

Capítulo 5 - Repetidor e Ponte 46

5.1 - Repetidor 46

5.2 - Pontes 47

Capítulo 6 - Sistemas Operacionais de Redes 50

6.1 - Sistema Operacionais de Redes 50

6.1.1 - Redirecionador 52

6.2 - Arquiteturas Peer-to-Peer e Cliente-Servidor 53

6.3 - Servidores 56

6.4 - Os Sistemas Operacionais de Redes 58

6.4.1 - Drives de Placa de Rede 59

6.4.2 - Drivers de Protocolo 59

6.5 - Protocolos de Acesso ao Meio 60

6.5.1- Acesso Baseado em Contenção 61

6.5.1.1- Aloha 62

6.5.1.2- CSMA 62

6.5.1.3 - REC-RING 65

6.5.2- Acesso Ordenado sem Contenção 65

6.5.2.1- Polling 65

6.5.2.2-Slot 66

6.5.2.3 - Inserção de Retardo 67

6.5.2.4 - Passagem de Permissão 67

6.5.2.5 - Protocolos com Reserva 70

6.5.3 - Protocolos de Acesso em Redes Óticas 71

6.5.3.1- Slotted-Aloha/PA 72

6.5.3.2 -TDMA_C 72

6.5.3.3- AMTRAC 73

6.5.3.4- Pipeline 73

6.5.4- Protocolo de Acesso com Prioridade 73

INTRODUÇÃO

Inicialmente, os computadores eram máquinas caríssimas que centralizavam em um único ponto o processamento das aplicações de varios usuarios, e muitas vezes de toda uma organizaçao . com reducao de custos do hadware e introducao dos microcomputadores no cenario da informatica, a estrutuca centralizada sedeu lugar a uma estrutura toralmente distribuida. Nessa esturtura diversos equipamentos dos mais variados portes processao informacoes de formas isoladas., oque acarreta uma serie de problemas. Dentre os prlbelmas apresentados, destaca-se a duplicacao desnecessaria de recursos de hardware (impressoras, discos, etc.) e de software(programas, arquivos de dados etc.)

Nesse cenario surgiram as redes de computadores, onde um sistema de comunicacao foi introduzido para interligar os equipamentos de processamentos de dados (estacoes de tratabalhos) , antes operando isoladamente com o objetivo de permitir o compartilhamento de recursos.

Capitulo 1 - Princípios da Comunicação

1.1 - Evolução dos Sistemas de Computação

Na década de 1950, computadores eram máquinas grandes e complexas, operadas por pessoas altamente especializadas. Usuários enfileiravam-se para submeter suas leitoras de cartões ou fitas magnéticas que eram processados em lote. Não havia nenhuma forma de interação direta entre usuários e máquina.

Avanços na década de 1960 possibilitaram o desenvolvimento dos primeiros terminais interativos, permitindo aos usuários acesso ao computador central através de linhas de comunicação. Usuários passavam a ter então um mecanismo que possibilitava a interação direta com o computador, ao mesmo tempo em que avanços nas técnicas de processamento davam origem a sistemas de tempo compartilhado (time-sharing), permitindo que várias tarefas dos diferentes usuários ocupassem simultaneamente o computador central, através de uma espécie de revezamento no tempo de ocupação do processador.

Mudanças na caracterização dos sistemas de computação ocorreram durante a década de 1970: de um sistemas único centralizado e de grande porte, disponível para todos os usuários de uma determinada organização, partia-se em direção à distribuição do poder computacional. O desenvolvimento de minis e microcomputadores de bom desempenho, com requisitos menos rígidos de temperatura e umidade, permitiu a instalação de considerável poder computacional em várias localizações de uma organização, ao invés da anterior concentração deste poder em uma determinada área.

Embora o custo de hardware de processamento estivesse caindo, o preço dos equipamentos eletromecânicos continuava alto. Mesmo no caso de dados que podiam ser associados a um único sistema de pequeno porte, a economia de escala exigia que grande parte dos dados estivessem associados a um sistema de grande capacidade centralizado. Assim a interconexão entre os vários sistemas para o uso compartilhado de dispositivos periféricos tornou-se importante.

A capacidade de troca de informações também foi uma razão importante para a interconexão. Usuários individuais de sistemas de computação não trabalham isolados e necessitam de alguns dos benefícios oferecidos pôr um sistema centralizado. Entre esses a capacidade de troca de mensagens entre os diversos usuários e a facilidade de acesso a dados e programas de várias fontes quando da preparação de um documento.

Ambientes de trabalho cooperativos se tornaram uma realidade tanto nas empresas como nas universidades, exigindo a interconexão dos equipamentos nessas organizações.

Para tais problemas de performance os pesquisadores a criaram novas arquiteturas que propunham a distribuição e o paralelismo como forma de melhorar desempenho, confiabilidade e modularidade dos sistemas computacionais.

1.2 - Evolução das Arquiteturas

A maioria dos computadores projetados até a década de 1980 teve sua concepção baseada nos modelos original de Von Neumann. A interação perfeito entre o modo como os programas são desenvolvidos e a maneira como são interpretados foi uma das razões para o grande sucesso de tal modelo.

A revolução nos sistemas de computadores começou com os avanços de tecnologia de integração de circuitos, que reduziram em muito os custos das partes de tais sistemas. Várias arquiteturasforam então propostas, dentro das restrições de tecnologia de cada época, tentando contornar as limitações foi modelo de Von Neumann no que diz respeito ao custo, confiabilidade e desempenho.

Dentre as alternativas apresentadas, podemos citar os sistemas de UCP única com múltiplas unidades funcionais, as máquinas pipelune e os processadores de matriz (Array Processors).

A idéia de seqüência múltiplas e independentes de instruções em um sistema composto por vários elementos de processamento compartilhando um espaço comum de memória aparece em uma outra arquitetura, tendo sido citada na literatura como Sistemas de Multiprocessadores Fortemente Acoplados o Controle centralizado de modelo Von Neumann tem as seguintes características:

  • Dois ou mais processadores de capacidade aproximadamente iguais.

  • Todos os processadores dividem o acesso a uma memória comum.

  • Todos os processadores compartilham os canais de entrada/saída unidades de controle e dispositivos periféricos.

O sistema total é controlado pôr um único sistema operacional.

Por último surgiram os Sistemas de Processamento Distribuídos por Eckhouse 78 como uma ”coleção de elementos de processamentos interconectados tanto lógicamente quanto fisicamente para execução cooperativa de programas de aplicação com controle dos recursos descentralizado”.

Em sistemas Distribuídos, também chamadossistemas Fracamente Acoplados, o estado do sistema é fragmentado em partes que residem em diferentes processadores e memórias, com comunicação entre essas partes sujeita a retardos variáveis e desconhecidos. A diferença marcante entre sistemas fracamente acoplados é a única forma de interação entre os módulos processadores se dá através da troca de mensagens, e sistemas fortemente existe uma memória compartilhada entre os módulos. Em sistemas distribuídos é impossível forçar a simultaneidade de eventos. A mínima interferência em uma execução de tarefas paralelas vai permitir a obtenção de sistemas de grande desempenho. A não existência de qualquer elemento sem o qual o sistema para totalmente lhe confere alta confiabilidade. A possibilidade de utilização em larga escala de um pequeno número de elementos básicos de hardware e software é responsável pelo elevado grau de modularidade do sistema.

Várias são as razões para o uso de sistemas de múltiplos processadores (sejam eles fortemente ou fracamente acoplados):

Custo/desempenho: a evolução da tecnologia de síntese de circuitos integrados tem conduzido os custos de microprocessadores e memórias a valores bem reduzidos; responsividade: um sistema de múltiplos processadores pode apresentar um grande potencial de processamento, pois pode ser moldado à aplicação; modularidade: devemos fazer um sistema de computação modular por várias razões tais é uma relação custo/desempenho satisfatória para vários tipos de configurações, crescimento incremental ou expansibilidade pois um sistema bem projetado pode superar problemas de sobrecarga e/ou abranger uma maior gama de aplicações pelas simples inclusão de processadores; utilização em larga escala um conjunto de componentes básicos para a realização do sistema, mas também sua futura manutenção; concorrência: máquinas destinadas a aplicações que requisitam alto desempenho exigem, em geral a adoção de soluções que envolvem a utilização em larga escala de elementos concorrentes de processamento.

As desvantagens de um sistema de múltiplos processadores podem ou não mascarar as vantagens, de acordo com os requisitos particulares do sistema. Dentre elas podemos citar:

  • O desenvolvimento de software aplicativo para tais sistemas pode ser mais complexo, e portanto mais caro do que para sistemas centralizados.

  • A decomposição de tarefas é mais complexas quer realizada automaticamente pelo software do sistema ou pelo programador.

  • O desenvolvimento do software de diagnóstico é mais difícil e mais caro.

  • Um sistema distribuído é mais dependente da tecnologia de comunicação.

  • O tempo de serviço de um sistema com múltiplos processadores pode ultrapassar os limites máximos de tolerância se a estrutura de comunicação entre os processadores não suportar a taxa de transmissão de mensagem necessária.

  • Uma falha na estrutura de comunicação pode fazer com que os sintomas de um defeito em um processador reflita em outros.

Embora difícil de caracterizar, a arquitetura de múltiplos processadores tem melhor aplicação em sistemas que exigem grande disponibilidade, grandes requisitos de vazão, tempos de resposta garantidos e baixos, alto grau de modularidade, e também onde as tarefas podem ser executadas de modo concorrente.

Um sistema Distribuído vai ser formado por um conjunto de módulos processadores interligados por um sistema de comunicação. Vemos então que a interconexão de sistemas veio atender a duas necessidades distintas:

  • construção de sistemas com maior desempenho e maior confiabilidade

  • Compartilhamento de recursos.

Alguns autores consideram como Sistema Distribuído apenas aqueles construídos para atender a primeira necessidade, classificando como Redes de Computadores os sistemas construídos com a finalidade de permitir o compartilhamento de recursos. Outros preferem classificar todos esses sistemas como Sistemas Distribuídos e subclassificá-los em Máquinas de Arquitetura Distribuída e Redes de Computadores.

Uma Máquina de Arquitetura Distribuída é composta por um número ilimitado mas finito de módulos autônomos de processamento interconectados para formar um único sistema, no qual o controle executivo global é implementado através da cooperação de elementos descentralizados.

Uma Rede de Computadores também é formada por um número ilimitado mas finito de módulos autônomos de processamento interconectados, no entanto a independência dos vários módulos de processamento é preservada na sua tarefa de compartilhamento de recursos e troca de informações.

1.3 - Redes de Computadores

Uma Rede de Computadores é formada por um conjunto de módulos processadores (Mps) capazes de trocar informações e compartilhar recursos, interligados por um sistema de comunicação.

O sistema de comunicação vai se constituir de um arranjo topológico interligando os vários módulos processadores através de enlaces físicos (meios de transmissão) e de um conjunto de regras com o fim de organizar a comunicação (protocolos). Redes de computadores são ditas confinadas quando as distâncias entre os módulos processadores são menores que alguns poucos metros. Redes Locais de Computadores são sistemas cujas distâncias entre os módulos processadores se enquadram na faixa de alguns poucos metros a alguns poucos quilômetros. Sistemas cuja dispersão é maior do que alguns quilômetros são chamadas Redes Geograficamente Distribuídas.

1.3.1 - Redes Locais ( Local Area Networks - LANs)

Surgiram dos ambientes de institutos de pesquisa e universidades, o enfoque dos sistemas de computação que ocorriam durante a década de 1970 levavam em direção à distribuição do poder computacional. Redes locais surgiram para viabilizar a troca e o compartilhamento de informações e dispositivos periféricos( recursos de hardware e software), preservando a independência das várias estações de processamento, e permitindo a integração em ambientes de trabalho cooperativo. Pode-se caracterizar uma rede local com sendo uma rede que permite a interconexão de equipamentos de comunicação de dados numa pequena região que são distâncias entre 100m e 25Km embora as limitações associadas às técnicas utilizadas em redes locais não imponham limites a essas distâncias. Outras características típicas encontradas e comumente associadas a rede locais são : alta taxas de transmissão (de 0,1 a 100Mbps) e baixas taxas de erro (de 10-8 a 10-11); outra característica é que em geral elas são de propriedade privada.

Quando a distância de ligação entre vários módulos processadores começa a atingir distâncias metropolitanas, chamamos esses sistemas não mais de rede locais, mas de Redes Metropolitanas (Metropolitan Area Networks - MANs).

Uma rede metropolitana apresenta características semelhantes às redes locais, sendo que as MANs em geral, cobrem distâncias maiores que as LANs operando em velocidades maiores.

1.3.2 - Redes Geograficamente Distribuídas (Wide Area Networks - WANs)

Surgiram da necessidade de se compartilhar recursos especializados por uma maior comunidade de usuários geograficamente dispersos. Por terem um custo de comunicação bastante elevado (circuitos para satélites e enlaces de microondas), tais redes são em geral públicas, isto é, o sistema de comunicação, chamado sub-rede de comunicação, é mantido gerenciado e de propriedade pública. Face a várias considerações em relação ao custo, a interligação entre os diversos módulos processadores em uma tal rede determinará utilização de um arranjo topológico específico e diferente daqueles utilizados em redes locais. Ainda por problemas de custo, as velocidades de transmissão empregadas são baixas: da ordem de algumas dezenas de kilobits/segundo (embora alguns enlaces cheguem hoje a velocidade de megabits/segundo). Por questão de confiabilidade, caminhos alternativos devem ser oferecidos de forma a interligar os diversos módulos.

1.3.3 - Características para implantação de Redes de Computadores

A escolha de um tipo particular de rede para suporte a um dado conjunto de aplicações é uma tarefa difícil. Cada arquitetura possui certas características que afetam sua adequação a uma aplicação em particular. Nenhuma solução pode chamar par si a classificação de ótima quando analisada em contexto geral, e até mesmo em particular. Muitos atributos entram em jogo, o que torna qualquer comparação bastante complexa. Esses atributos dizem respeito ao custo, à confiabilidade, ao tempo de resposta, à velocidade, ao desempenho, à facilidade de desenvolvimento, à modularidade, à disponibilidade, à facilidade, à complexidade lógica, à facilidade de uso, à facilidade de manutenção, e etc..

O custo de uma rede é dividido entre o custo das estações de processamento (microcomputadores, minicomputadores etc.), o custo ds interfaces co o meio de comunicação e o custo do próprio meio de comunicação. O custo das conexões dependerá muito do desempenho que se espera da rede. Redes de baixo a médio desempenho usualmente empregam poucas estações com uma demanda de taxas de dados e volume pequeno, com isso as interfaces serão de baixo custo devido as sua limitações e aplicações.

Redes de alto desempenho já requerem interfaces de custos mais elevados, devido em grande parte ao protocolo de comunicação utilizado e ao meio de comunicação.

Várias são as medidas que caracterizam o desempenho de um sistemas com isso faz-se necessário definir o que é retardo de transferência, retardo de acesso e retardo de transmissão.

Chamamosretardo de acesso o intervalo de tempo decorrido desde que uma mensagem a transmitir é gerada pela estação até o momento em que a estação consiga obter somente para ela o direito de transmitir, sem que haja colisão de mensagens no meio.

Retardo de Transmissão é o intervalo de tempo decorrido desde o início da transmissão de uma mensagem por uma estação de origem até o momento em que a mensagem chega à estação de destino.

Retardo de Transferência é a soma dos retardos de acesso e transmissão, incluindo o todo o tempo de entrega de uma mensagem, desde o momento em que deseja transmiti-la, até o momento em que ela chega para ser recebida pelo destinatário.

O retardo de transferência é, na grande maioria dos casos, uma variável aleatória, no entanto em algumas redes o maior valor que o retardo de transferência pode assumir é limitado ou seja determinístico).

A rede dever ser moldada ao tipo particular de aplicação de modo a assegurar um retardo de transferência baixo. O sistema de comunicação entre os módulos deve ser de alta velocidade e de baixa taxa de erro, de forma a não provocar saturação no trafego de mensagens. Em algumas aplicações (em particular as de controle em tempo real) a necessidade de retardo de transferência máximo limitado é de vital importância.

A utilização efetiva do sistema de comunicação é apenas uma porcentagem da capacidade total que ela oferece. Uma rede deve proporcionar capacidade suficiente para viabilizar a que é destinada, e certos critérios devem ser elevados em conta, a escolha adequada da arquitetura, incluindo a estrutura de conexão, o protocolo de comunicação e o meio de transmissão, velocidade e retardo de transferência de uma rede são essenciais para um bom desempenho de uma rede local.

A confiabilidade de um sistema em rede pode ser avaliada em termos de tempo médio entre falhas (Medium Time Between Failures- MTBF), tolerância a falhas, degradação amena (Gracefull Degradation), tempo de reconfiguração após falhas e tempo médio de reparo (MTTR - Medium Time to Repair).

O tempo médio entre falhas é geralmente medido dem horas, estando relacionado com a confiabilidade de componentes e nível de redundância.

Degradação amena é dependente da aplicação ela mede a capacidade da rede continuar operando em presença de falhas, embora com um desempenho menor.

Reconfiguração após falhas requer caminhos redundantes sejam acionados tão logo ocorra uma falha ou esta seja detectada.

A rede deve ser tolerante a falhas transientes causadas por hardware e/ou sotware, de forma que tais falhas causem apenas uma confusão momentânea que será resolvidas sem recursos de redundância, mas essas não são de modo algum as únicas falhas possíveis. O tempo médio de reparo pode ser diminuído com o auxílio de redundância, mecanismos de autoteste e diagnóstico e manutenção eficiente.

Modularidade pode ser caracterizada como grau de alteração de desempenho e funcionalidade que um sistema(rede) pode sofrer em mudar seu projeto original. Os três maiores benefícios de uma arquitetura modular são a facilidade para modificação que é simplicidade com funções lógicas ou elementos de hardware podem ser substituídos, a despeito da relação íntima com outros elementos; a facilidade para crescimento diz respeito a configurações de baixo custo, melhora de desempenho e funcionalidade e baixo custo de expansão; e a facilidade para o uso de um conjunto de componentes básicos será melhor facilidade para viabilizar um projeto, adicionar equipamentos a rede, manutenção do sistema como um todo.

Uma rede bem projetada deve poder de adaptar modularmente às várias aplicações que é dedicada, como também prever futuras instalações.

De fundamental importância a compatibilidade será aqui utilizada como a capacidade que o sistema (rede) possui para de ligar a dispositivos de vários fabricantes, quer a nível de hardware quer a nível de software. Essa característica é extremamente importante na economia de custo de equipamentos já existentes.

Uma rede deve ter a capacidade de suportar todas as aplicações para qual foi dedicada e mais aquelas que o futuro possa requer. Quando possível, não deve ser vulnerável à tecnologia, prevendo a utilização de futuros desenvolvimentos, quer sejam novas estações, novos padrões de transmissão ou novas tecnologias de transmissão etc., a isso damos o nome de sensibilidade tecnológica.

Capítulo 2 - TOPOLOGIAS

É uma das questões vitais na construção de qualquer sistema de comunicação.

A topologia de uma rede de comunicação irá , muitas vizes caracterizar seu tipo, eficiência e velocidade. A topologia refere-se a forma com que os enlaces físicos e os nós de comunicação estão organizados, determinando os caminhos físicos existentes e utilizáveis entre quaisque r pares de estações conectadas a essa rede

2.1 - Linhas de Comunicação

Na organização dos enlaces físicos num sistema , encontramos diversas formas de utilizaçãodas linhas de comunição. As ligações físicas podem ser de dois tipos: ponto a ponto ou multiponto. Ligações ponto a ponto caracterizam-se perla presença de apenas dois pontos de comunicação, um em cada extremidadedo enlace ou ligação. Nas ligações multiponto observa-se a presença de três ou mais dispositivos de comunicação com possibilidade de utilização do mesmo enlace.

Ponto a Ponto Multiponto

(Parte 1 de 6)

Comentários