Esta é uma pré-visualização de arquivo. Entre para ver o arquivo original
Rede de Computadores Aula 1: Introdução à Redes de Computadores Há muito tempo que o homem precisa de informações para a realização de uma atividade. Atividade esta que pode ser simplesmente informativa ou de vital importância. E, como levar uma informação considerada importante a um lugar distante? No ano de 409 a.C., um soldado atleta correu 42 km para levar uma notícia e caiu morto exaurido pelo cansaço, episódio este que ficou conhecido em todo mundo como Maratona. Mas, será que é preciso correr uma maratona para trocar informações? Talvez naquela época fosse a única maneira. Como então não pensar em Pedro Álvares Cabral ao sair de Portugal e encontrar terras brasileiras? Quanto tempo levou para que o rei de Portugal ficasse sabendo do seu descobrimento? Hoje em dia isso é praticamente impossível de acontecer. Eventos ocorrem e as informações chegam praticamente em tempo real. Tudo isso acontece por causa das redes de telecomunicações. Redes estas que nos possibilitam estar aqui estudando dessa forma. O homem sempre teve a preocupação de criar um meio para trocar informações no menor tempo possível. Uma criação que funcionou por muito tempo, inclusive ajudou a levar informações importantes na 1ª. e 2ª. Guerra foi o pombo-correio. Essa “rede” de comunicação, apesar de bastante utilizada, não era confiável e não havia meios de saber se o destinatário recebeu a mensagem. Claro que essa disciplina não visa explicar a origem nem as fragilidades do pombo-correio, nem explicar por que ele sempre volta para o seu ninho, mas mostrar que o homem, muito antes da criação dos computadores, já pensava em como se comunicar a distância. Após o advento dos computadores e o aumento de informações circulantes, estudantes de algumas universidades dos Estados Unidos se juntaram e criou- se a ARPANET, o embrião da atual internet. Esse foi o primeiro passo para o que hoje é considerado o maior sistema de engenharia criado pela humanidade. Nesta aula iremos definir o conceito de redes de computadores, suas funcionalidades e limitações, tecnologias envolvidas, topologias e classificações das redes de computadores. A partir da década de 60 era utilizado como forma de armazenamento e troca de informações entre computadores, o cartão perfurado. Esses cartões, literalmente de cartolina, armazenavam informações codificadas, de forma binária (0 e 1 ou furado e não furado ), e podiam ser lidos em outra unidade de computação. No final da década de 60, a APARNET foi criada. Tratava-se de uma rede que utilizava cabos telefônicos para estabelecer a conexão entre 4 universidades dos Estados Unidos. Inicialmente criada para fins didáticos, a APARNET pouco tempo depois já estava conectando pelo menos 30 universidades do país. Entretanto, ao se analisar o método de interligação dos computadores, notou-se que em vários momentos o circuito estabelecido entre as máquinas ficava ocioso, ou seja, não trafegava nenhuma informação. Esse método, também conhecido como computação por circuito 1 , era estabelecido pelas centrais telefônicas e alocado integralmente para a ligação. 1 Caracteriza-se por utilizar toda a área de transferência de informação. Uma vez estabelecida à comunicação entre duas pontas, o circuito fica estabelecido até uma das pontas desligar. Ex: Ligação Telefônica. Alguns anos mais tarde, surge a ideia de dividir as mensagens geradas em partes devidamente organizadas e “etiquetadas” por um cabeçalho. Cada parte é enviada ao meio de transmissão de forma aleatória e partindo de varias fontes. Como possuem um cabeçalho, com algumas informações relevantes como origem, destino, tamanho, ordem, entre outras, a mensagem pode ser recriada no seu destino. Esse modelo também é conhecido como computação por pacotes 2 , e é largamente utilizado nos dias de hoje. 2 Caracteriza-se pela estrutura do comutador de pacotes. Este é responsável por enfileirar os pacotes, organizar seu envio e aguardar em caso de engarrafamento ou congestionamento no circuito. Utilizando o conceito de empacotar, a internet utiliza função semelhante em alguns protocolos de comunicação. A Internet é um conjunto de equipamentos que ajudam no transporte das informações, e se comunicam por uma pilha de protocolo chamado TCP/IP. Esses equipamentos vão além de computadores a celulares, passando por televisões e eletroeletrônicos em geral. Multiplexação em Redes de Comutação por Circuitos: Existem algumas formas de comutação por circuitos, mas em termos didáticos falaremos basicamente de 2. FDM e TDM. Multiplexação Consiste em uma forma de transmitir várias informações por um canal físico, ao mesmo tempo. Na multiplexação, o dispositivo chamado multiplexador tem como objetivo criar diversos caminhos ou canais dentro de um único meio físico. Essa operação pode ser feita por meio de diferenciação de frequência (FDM) ou por tempo (TDM). FDM frequency division multiplexing) ou Multiplexação por divisão de frequência. Por essa tecnologia, o canal é dividido em bandas. Cada banda trabalha em uma frequência. Para cada frequência emitida pelo multiplexador, ou MUX, tem que haver uma mesma frequência de recebimento do demultiplexador, ou DEMUX. Um exemplo cotidiano são as estações de rádio FM. Utilizando-se do meio “físico” ar, a emissora de rádio estabelece uma frequência de transmissão (88 MHz ate 108MHz), fazendo o papel do Multiplexador, e o seu radinho de pilha que está sintonizado na sua estação FM preferida faz o papel de demultiplexador ou DEMUX. No caso da telefonia fixa a banda de frequência da nossa voz é conhecida e definida em 4 kHz ( ou seja 4 mil Hertz ou 4 mil ciclos por segundo). Utilizando um canal físico, o MUX divide este em sub-canais com frequências diferentes de transmissão, podendo passar, portanto, vários canais de 4 kHz de banda em um único meio de transmissão. TDM (Time Division Multiplexing) ou Multiplexação por divisão de tempo. Para essa tecnologia o canal é dividido em quadros de duração fixa. Cada quadro é dividido em pequenos compartimentos de tamanho fixo, também chamado de slots. Ao iniciar a transmissão, o quadro atravessa o canal em um determinado tempo e, após ultrapassar o tempo determinado, é enviado outro quadro de outro emissor, e assim sucessivamente até completar um ciclo, onde será enviado o segundo quadro do primeiro emissor. Por ter uma sincronia temporal, esse método de transmissão também é chamado de TDM síncrono. Para um bom entendimento, podemos comparar esse método a um trem, onde os vagões são os quadros e os conteúdos dos vagões são os slots. Ao deixar a estação inicial, o próximo trem terá que chegar e sair conforme o tempo determinado. Ao passar o segundo trem, este irá pegar as próximas informações e deixá-las no destino. Isso acontecendo várias vezes em um período de tempo. Para melhor entendimento, vamos ver um exemplo: Possuo um arquivo de 640 kbits (kilo bits) para ser enviado a um servidor de destino. A minha rede utiliza o TDM de 24 compartimentos e tem uma taxa de 1,536 Mbps (Mega bits por segundo ). Suponhamos que para ativar o canal desse circuito leve 500 milisegundos. Em quanto tempo esse arquivo será enviado? Vamos lá... Precisaremos definir algumas coisas. Para facilitar, vamos pegar o exemplo do trem. O tamanho total do trem é de 1,536 Mbps e, como ele possui 24 vagões temos então o tamanho de cada vagão (nesse caso é o tamanho do canal). 1,536 Mbps / 24 = 64 kbps. Como meu arquivo possui 640 kbits e o trem passa a cada segundo na estação (bps ou bits por segundo), precisaremos de 10 segundos para transmitir o arquivo. 640 kbit / 64 kbps = 10 segundos. Como o canal precisa ser ativado e este demora 500 milisegundos ( ou 0,5 segundos ) para ativar, temos: 10 segundos + 0,5 segundos = 10,5 segundos. Não foi por acaso que eu utilizei esses números, pois estes são utilizados nos dias de hoje. O valor de 1,536 Mpbs também é conhecido como link T1, um padrão europeu que possui 24 canais de 64 kbps. Para os padrões brasileiros o link é chamado tronco E1 ou 2 Megas, isso por que ele possui 2 Mbps com 31 canais de 64 kbps (30 canais para uso e 1 para sinalização). Como exercício de fixação, refaça esse exercício utilizando um tronco de 2 megas e um arquivo de 1280 kbits. Nesse caso o circuito não precisa ser ativado. Resp. 20 segundos. Para ilustração, segue abaixo um desenho comparativo entre as tecnologias de multiplexação. Usando como exemplo um canal de 4 kHz para FDM e 4 canais para TDM. Exemplificando em um gráfico Frequência x Tempo: Tipos de redes de computadores: Ao iniciar a tentativa de conectar um computador a uma rede, a primeira preocupação é saber como os equipamentos se comunicam com essa rede. Para isso é necessário que o usuário obtenha algumas informações do administrador da rede. Essas informações serão fundamentais para o funcionamento do aparelho. Uma das informações que tem que ser levantadas é no que diz respeito à sua topologia. Existem basicamente três tipos de topologia. Barramento Computadores estão ligados linearmente através de um cabo único, conforme mostra a figura. Cada computador tem um endereçamento, e as informações trafegam por um único meio, onde ao seu final terá um terminador responsável por descartar controlar o fluxo de dados da rede. Indicado para redes simples já que tem limitações de distância, gerenciamento e tráfego de dados. Vantagens Fácil de instalar. Fácil de entender. Desvantagens Rede pode ficar lenta. Dificuldade para isolar problemas. Estrela Computadores ligados a um dispositivo central responsável pelo controle de informações trafegadas, conforme mostra a figura. É o dispositivo central que tem a função de controlar, ampliar sinal, repetir dados, ou seja, todas as informações da rede passam por ele. Entretanto, se esse máquina parar de trabalhar, toda a rede e as informações que trafegam serão afetadas. Vantagens Monitoramento centralizado. Facilidade de adicionar novas máquinas. Facilidade de isolar falhas. Desvantagens Maior quantidade de cabos. Máquina central deve ser mais potente. Sujeito à paralisação de rede caso a central tenha defeito. Anel Computadores ligados a um cabo, onde o último equipamento deverá se conectar ao primeiro, formando assim um anel. Apesar de possuir um único meio de transmissão, essa rede não possui os terminadores de rede em barramento, fazendo com que os próprios computadores desenvolvam esse papel. Vantagens Pode atingir maiores distâncias, pois cada máquina repete e amplifica o sinal. Desvantagens Problemas difíceis de isolar. Se uma máquina falhar, a rede pode parar. Vale ressaltar que essas topologias são padrões básicos, e que na prática se utiliza os padrões combinados entre si, também chamados de híbridos. Ex: Barramento-Estrela, Anel-Barramento, Estrela-Anel, dentre outros. ISP e Backbones A internet que o usuário final conhece é através de uma conexão de seu equipamento com um provedor local. Ao estabelecer a conexão, o usuário estará dentro da rede do provedor, também chamado de ISP (Internet Service Provider). Nível 1 Considerado o backbone da internet. Interliga outros ISP nível 1, além de conectar ao ISP nível 2. Sua cobertura é internacional. Nível 2 Conecta-se com ISP nível 1 e 3. Sua abrangência é regional ou nacional. Nível 3 Conecta-se com os de nível 2. Normalmente são os que fazem a comunicação com o usuário final. Classificação das redes de computadores Redes de computadores costumam se definidas de acordo com a abrangência, tamanho e função. Inicialmente possuíam três classificações. LAN – Local Area Network Rede Local, limita-se a uma pequena região física. Normalmente utilizadas em escritórios e empresas pequenas ou localizadas perto uma das outras. MAN – Metropolitan Area Network Uma área maior que a LAN, que pode contemplar uma cidade ou um bairro. WAN – Wide Area Network Rede que integra vários equipamentos em diversas localizações geográficas pode envolver países ou até mesmo continentes. Com o surgimento de equipamentos de rede para uso pessoal, criou- se uma nova classificação para essas redes. PAN – Personal Area Network Rede de computador usada para comunicação entre dispositivos perto de uma pessoa. Normalmente sem fio. Esse é um novo conceito de classificação de rede. HAN – Home Area Network O mesmo que PAN, mas com cabos de conexão interligados. Também um conceito novo de classificação. CAN – Campus Area Network Abrange uma área mais ampla. Por exemplo, uma rede de universidade. SAN – Storage Area Network Existe também uma rede específica para trafegar informações de Backup e restore. Rede utilizada para backup. Essa rede não interfere na performance da rede local. Essa rede pode ser de altíssima velocidade, dependendo da aplicabilidade das informações backupeadas. Entidades governamentais e padronizações Existem diversas entidades governamentais que são responsáveis pela criação, autorização e padronização de regras, tecnologia e equipamentos para computadores e dispositivos. ANSI (American National Standarts Institute) http://www.ansi.org IANA (Internet Assigned Numbers Authority) http://www.iana.org/ ISO (International Standards Organization) http://www.iso.org/iso/home.html ITU (International Telecommunications Union) http://www.itu.int/en/pages/default.aspx IEEE (Institute of Electrical and Electronic Engineers) http://www.ieee.org/index.html http://www.ieee.org.br/ IETF (Internet Engineering Task Force) http://www.ietf.org/ IAB (Internet Architecture Board) http://www.iab.org/ IRTF (Internet Research Task Force) http://www.irtf.org/ TIA (Telecommunications Industries Association) http://www.tiaonline.org/ Como designamos a unidade de transmissão da camada de rede? Pacote As regras da camada de Enlace do Modelo OSI estão inseridas em que camada do modelo TCP/IP? Física A organização responsável pela determinação da frequência de um equipamento de comunicação de dados é a(o): ITU – R Aula 2: Visão geral de conceitos fundamentais Arquitetura de Redes de Computadores Uma arquitetura de rede de computadores se caracteriza por ter um conjunto de camadas que auxilia o desenvolvimento de aplicações para redes. Inicialmente o modelo de referência foi o OSI (Open System Interconnection - Interconexão de Sistemas Abertos), que foi criado em meados dos anos 70 e inspirou a criação do modelo TCP/IP. O Modelo OSI tem como característica ser um modelo teórico, onde é muito bem definida a função de cada uma das sete camadas. Mas o que seria uma distribuição em camadas? Cada camada tem uma função, que pode ou não interferir na sua camada anterior ou posterior. Para tentarmos fazer uma analogia, vamos imaginar uma viagem de avião. Primeiramente você deve: Na camada passagem aérea e bagagem, são realizados os serviços de compra e despacho de bagagem, realizados pelo balcão de check-in da companhia aérea. Nas camadas bagagem e abaixo são realizados o despacho e a entrega de bagagem. Essas atividades somente são realizadas, pois na camada acima o passageiro já realizou o check-in. Nesta camada a função é do serviço de coleta de bagagens do aeroporto. Na camada dos portões se realiza a transferência do portão de embarque e desembarque. Na camada decolagem/ aterrisagem se realiza a transferência do passageiro pela pista. Notem que, para todas as camadas o passageiro e suas bagagens tiveram que realizar uma função. Este é um exemplo de uma arquitetura de camadas. Para o modelo 0SI existem sete camadas: Aplicação Nesta camada é onde estão as aplicações de redes que mais se aproximam do usuário final. Nela incluem vários protocolos, como o HTTP (protocolo que provê requisição e transferência de arquivos pela WEB), SMTP (protocolo que provê transferência de mensagens na WEB). Apresentação A função dessa camada é prover serviços que auxiliem as aplicações de comunicação a interpretar o significado dos dados trocados. Sessão A função dessa camada é delimitar e sincronizar a troca de dados, incluindo um meio de construir uma forma de se obter pontos de verificação e de recuperação de dados. Transporte Tem a função de controlar o transporte de mensagens das camadas acima entre dois computadores que estão querendo estabelecer uma conexão. Os dois protocolos mais importantes dessa camada são o TCP e o UDP. Um pedaço da camada de transporte também é chamado de segmento. Rede A função dessa camada é prover o serviço de entrega do segmento ao destinatário. Como o segmento é um pedaço da camada de transporte, a camada de rede faz a função de etiquetar os segmentos com endereços de origem e destino, assim como o serviço dos correios ao postar uma carta. Esses pedaços são chamados de pacotes ou datagramas. Enlace Tem a função de procurar o endereço de entrega do datagrama. O datagrama viaja entre os equipamentos da camada de rede até encontrar o destinatário. Os pedaços desta camada são chamados de quadros. Física Tem a função de movimentar os BITS de um lugar para o outro. Essa camada representa os meios físicos de transmissão como os fios de cobre e os cabos de fibra ótica. O Modelo TCP/IP Constitui um modelo também organizado por camadas. Em comparação com o modelo OSI, o modelo TCP/IP possui somente quatro camadas, as quais estão relacionadas de acordo com a imagem abaixo. O Modelo de Pilha de 4 camadas do TCP/IP O TCP/IP foi desenhado segundo uma arquitetura de pilha, onde diversas camadas de software interagem somente com as camadas acima e abaixo. Há diversas semelhanças com o modelo conceitual OSI da ISO, mas o TCP/IP é anterior à formalização deste modelo e portanto possui algumas diferenças. O nome TCP/IP vem dos nomes dos protocolos mais utilizados desta pilha, o IP (Internet Protocol) e o TCP (Transmission Control Protocol). Mas a pilha TCP/IP possui ainda muitos outros protocolos, dos quais veremos apenas os mais importantes, vários deles necessários para que o TCP e o IP desempenhem corretamente as suas funções. Visto superficialmente, o TCP/IP possui 4 camadas, desde as aplicações de rede até o meio físico que carrega os sinais elétricos até o seu destino: 4. Aplicação (Serviço) FTP, TELNET, LPD, HTTP, SMTP/POP3, NFS 3. Transporte TCP, UDP 2. Rede IP 1. Enlace Ethernet, PPP, SLIP Além das camadas propriamente ditas, temos uma série de componentes, que realizam a interface entre as camadas: Aplicação / Transporte DNS, Sockets Rede / Enlace ARP, DHCP Vamos apresentar agora uma descrição da função de cada camada do TCP/IP: Os protocolos de enlace tem a função de fazer com que informações sejam transmitidas de um computador para outro em uma mesma mídia de acesso compartilhado (também chamada de rede local) ou em uma ligação ponto-a- ponto (ex: modem). Nada mais do que isso. A preocupação destes protocolos é permitir o uso do meio físico que conecta os computadores na rede e fazer com que os bytes enviados por um computador cheguem a um outro computador diretamente desde que haja uma conexão direta entre eles. Já o protocolo de rede, o Internet Protocol (IP), é responsável por fazer com que as informações enviadas por um computador cheguem a outros computadores mesmo que eles estejam em redes fisicamente distintas, ou seja, não existe conexão direta entre eles. Como o próprio nome (Internet) diz, o IP realiza a conexão entre redes. E é ele quem traz a capacidade da rede TCP/IP se "reconfigurar" quando uma parte da rede está fora do ar, procurando um caminho (rota) alternativo para a comunicação. Os protocolos de transporte mudam o objetivo, que era conectar dois equipamentos, para' conectar dois programas. Você pode ter em um mesmo computador vários programas trabalhando com a rede simultaneamente, por exemplo, um browser Web e um leitor de e-mail. Da mesma forma, um mesmo computador pode estar rodando ao mesmo tempo um servidor Web e um servidor POP3. Os protocolos de transporte (UDP e TCP) atribuem a cada programa um número de porta, que é anexado a cada pacote de modo que o TCP/IP saiba para qual programa entregar cada mensagem recebida pela rede. Finalmente os protocolos de aplicação são específicos para cada programa que faz uso da rede. Desta forma existe um protocolo para a conversação entre um servidor web e um browser web (HTTP), um protocolo para a conversação entre um cliente Telnet e um servidor (daemon) Telnet, e assim em diante. Cada aplicação de rede tem o seu próprio protocolo de comunicação, que utiliza os protocolos das camadas mais baixas para poder atingir o seu destino. Pela figura acima vemos que existem dois protocolos de transporte no TCP/IP. O primeiro é o UDP, um protocolo que trabalha com datagramas, TCP/IP. O primeiro é o UDP, um protocolo que trabalha com datagramas, que são mensagens com um comprimento máximo pré-fixado e cuja entrega não é garantida. Caso a rede esteja congestionada, um datagrama pode ser perdido e o UDP não informa as aplicações desta ocorrência. Outra possibilidade é que o congestionamento em uma rota da rede possa fazer com que os pacotes cheguem ao seu destino em uma ordem diferente daquela em que foram enviados. O UDP é um protocolo que trabalha sem estabelecer conexões entre os softwares que estão se comunicando. Já o TCP é um protocolo orientado a conexão. Ele permite que sejam enviadas mensagens de qualquer tamanho e cuida de quebrar as mensagens em pacotes que possam ser enviados pela rede. Ele também cuida de rearrumar os pacotes no destino e de retransmitir qualquer pacote que seja perdido pela rede, de modo que o destino receba a mensagem original, da maneira como foi enviada. Agora, vamos aos componentes que ficam na interface entre os níveis 3 e 4 e entre os níveis 1 e 2. O Sockets é uma API para a escrita de programas que trocam mensagens utilizando o TCP/IP. Ele fornece funções para testar um endereço de rede, abrir uma conexão TCP, enviar datagramas UDP e esperar por mensagens da rede. O Winsockets, utilizado para aplicações Internet em Windows é nada mais do que uma pequena variação desta API para acomodar limitações do Windows 3.1. No Windows NT e Win95 pode ser usada a API original sem problemas. O Domain Name Service (DNS), que será visto com maiores detalhes mais adiante, fornece os nomes lógicos da Internet como um todo ou de qualquer rede TCP/IP isolada. Temos ainda o ARP realiza o mapeamento entre os endereços TCP/IP e os endereços Ethernet, de modo que os pacotes possam atingir o seu destino em uma rede local (lembrem-se, no final das contas quem entrega o pacote na rede local é o Ethernet, não o TCP ou o IP). Por fim, o DHCP permite a configuração automática de um computador ou outro dispositivo conectado a uma rede TCP/IP, em vez de configurarmos cada computador manualmente. Mas, para entender o porque da necessidade do DHCP, temos que entender um pouco mais do funcionamento e da configuração de uma rede TCP/IP. Por que temos dois padrões de arquitetura? Inicialmente o modelo OSI foi criado para garantir que cada camada tivesse uma função bem específica e fundamentada. Foi desenhada para padronizar as aplicações que iriam trafegar na rede “recém descoberta”, a APARNET. Esse modelo foi incluído nos cursos de redes por exigência da ISO (International Organization for Standardization) e continua presente nos dias de hoje. O Modelo TCP/IP foi desenvolvido utilizando como base o modelo OSI. Por ser mais enxuto e utilizar dois protocolos centrais de transporte, tornou-se em pouco tempo um padrão para as redes de computadores. Visão geral de conceitos Para essa aula analisaremos a camada física do modelo TCP/IP. Lembrando que essa camada corresponde às camadas física e de enlace do modelo OSI. A camada física tem a finalidade de receber e transmitir bits através de um canal de telecomunicações. A camada de enlace tem algumas funções que tentam fazer com que o tráfego de dados da camada física pareça livre de erros. Para isto a camada realiza: Sincronização entre receptor e transmissor. Detecção e correção de erros. Formatação e segmentação dos dados. Gerenciamento de transmissões em uma ou em duas direções simultâneas. Controle de acesso a um canal compartilhado. Modos de transmissão Interface Dispositivo físico conectado entre o dispositivo transmissor e o meio de transmissão, responsável por desempenhar as funções das camadas física e de enlace. Os dispositivos de interface mais utilizados atualmente são os modems e as placas de rede. Canal Meio a partir do qual trafega uma onda eletromagnética conduzindo dados. Num mesmo meio podemos estabelecer vário canais. Somente para ilustrar, uma das formas mais fáceis de perceber essa funcionalidade é a TV a cabo, pois nela se encontram vários canais e o seu aparelho receptor é responsável por sintonizar (selecionar) um deles para exibição. Mas, o meio físico não se limita a algo que você pode pegar porque o ar também é considerado um meio físico para transmissão: são as redes sem fio. Exemplo de uma onda: Meios físicos de transmissão e suas características. Existem três modos diferentes de transmissão: Modulação Processo que modifica as características da onda constante, chamada de portadora, em sua amplitude, frequência ou fase. Ao se deformar devido a um sinal portador (o sinal a ser transmitido) esta varia sua característica proporcionalmente ao sinal modulador. Para modificar a onda portadora pode se empregar diversos algoritmos, mas os mais comuns são variações de amplitude, frequência e fase. Sinal Analógico Tipo de onda contínua que varia em função do tempo, onde possui infinitos estados entre o seu máximo e seu mínimo. Vantagens: não necessita de conversor, a transmissão é fácil. Sinal Digital Tipo de onda contínua com apenas dois estados (máximo 1 e mínimo 0 ). Vantagens: maior imunidade a ruídos, transmissão mais rápida e processamento direto do sinal recebido. Sinal de TV digital – ou está perfeito ou não sintoniza. Banda Passante Também chamada de “largura de banda”, é o conjunto de valores de frequência que compõem o sinal. Informalmente, diz-se que são as frequências que "passam" pelo filtro. Na prática a banda passante é a onda portadora. As características da portadora (frequência, amplitude, modulação e alcance) vão definir a capacidade de transmissão de dados no canal. Fatores que degradam o desempenho Durante a transmissão e a recepção o sinal pode sofrer algum tipo alteração. Os dispositivos possuem algoritmos de detecção e de correção de erros, mas em certas situações estes erros recebidos não podem ser corrigidos, sendo assim necessária a sua retransmissão. Caso sejam necessárias muitas retransmissões a sessão pode ser inviabilizada. Por exemplo, ao navegar na internet, quando demora a abrir uma página, a mensagem indica que o tempo limite estourou e pede para tentar novamente mais tarde. Fatores que podem degradar a qualidade de uma transmissão: Ruídos Distorções decorrentes das características do meio e de interferências de sinais indesejáveis. Ruído térmico Também chamado de ruído branco, é provocado pelo atrito dos elétrons nos condutores. Ruído de intermodulação Ocorre quando sinais de frequências diferentes compartilham o mesmo meio físico. Crosstalk – ou linha cruzada É a interferência que ocorre entre condutores próximos que induzem sinais mutuamente. Ruído impulsivo Pulso irregular com grande amplitude, não determinístico, provocado por diversas fontes. Atenuação Perda de energia por calor e radiação, degradando a potência de um sinal devido à distância percorrida no meio físico. Ecos Ocorrem devido à mudança na impedância em uma linha de transmissão, em que parte do sinal é refletido e parte transmitido. Quando o receptor recebe o mesmo sinal duas vezes não é possível separar um do outro e a conexão fica impedida. Atraso Um pacote, durante uma transmissão, trafega por vários segmento de rede, e pode passar por diversos roteadores e por vários tipos de meio de transmissão. Durante este percurso são somados os tempos necessários à recepção, à leitura e à retransmissão em todos os pontos intermediários. A soma dos tempos se chama atraso. Os tipos de atraso são: Atraso de transmissão Atraso de fila Atraso de processamento Atraso de propagação. Perda de Pacotes Durante uma transmissão, os comutadores mais complexos organizam filas de pacotes recebidos, classifica-os, organiza-os em filas de entrada, processa um a um os pacotes recebidos, decide qual a interface de saída com o endereço de destino e, finalmente, organiza a fila de saída. Após esse processamento, dependendo do tipo e qualidade do canal, pode haver um atraso para obter acesso ao meio e para transmitir todo o pacote. Essa organização de pacotes de entrada é feita e armazenada num espaço de memória. Caso o espaço de memória atinja o seu limite de armazenamento, os próximos pacotes a entrarem serão perdidos. Atraso total é: Atraso de processamento + atraso de fila + atraso de transmissão + atraso de propagação. Cada bloco recebe um cabeçalho identificador: Pacote O atraso de propagação ocorre mais em: Comunicações por satélite Half duplex é um modo de transmissão entre A e B onde: A transmite e B recebe, depois B transmite e A recebe O sistema de telefonia de voz: Usa comutação de circuitos Aula 3: Elementos de Interconexão de Rede São considerados elementos de Interconexão de redes: Placas de rede Modem Ponte (BRIDGE) Comutador (SWITCH) Roteador (ROUTER) Placa de Rede É o principal hardware de comunicação entre devices através de uma rede. Tem como função controlar o envio e o recebimento de dados através de uma rede. Cada arquitetura de rede exige um tipo específico de placa, seja ela com ou sem fio. Por exemplo: não é possível utilizar uma placa Ethernet em uma rede sem fio ou Token Ring, pois estas não utilizam a mesma linguagem de comunicação. Além da arquitetura das placas de rede, existem outros fatores que impedem essa comunicação como taxa de transferência, barramentos e tipos de conectores. Diferença de taxa de transferência A taxa de transmissão de placas Ethernet variam de 10 mbps, 100 mbps, 1000 mbps(1 gbps) ou 10.000 mbps(10 gbps), e as placas Token Ring de 4 mbps ou 16 mbps. No caso das fibras óticas, a taxa de transmissão é da ordem de 10 gbps. Diferença entre barramentos As placas de rede mais comuns utilizadas hoje em dia possuem dois tipos de barramento: PCI (mais novo) e ISA (mais antigo). Para os chamados computadores portáteis são utilizados placas PCMCIA. Uma novidade são as placas de redes USB que, apesar de existirem, são caras e, portanto, podem ser substituídas pelas citadas anteriormente. Fazendo uma análise da taxa de transmissão X barramentos, nas placas com o barramento ISA, por serem mais antigas, a taxa de transmissão é de no máximo 10 mbps, pois esta limitada à velocidade do barramento. Tipos de conectores: Para cada placa de rede, devemos utilizar cabos definidos nos padrões adequados à sua velocidade e tecnologia. Para as placas Ethernet de 10 mbps, por exemplo, devemos utilizar cabos de par trançado de categoria 3 ou 5, ou então cabos coaxiais. Em placas de 100 mbps, para se obter o máximo de transmissão, o requisito mínimo do cabeamento são cabos de par trançado blindados nível 5 (CAT 5). Para a placa de rede funcionar ela deve estar configurada em seu equipamento. Atualmente a maioria das placas possui o recurso PnP ( Plug and Play), sendo configurada automaticamente pelo sistema operacional. Nas placas mais antigas é necessário fazer a configuração dos canais de IRQ, DMA e os endereços de I/O. Para os níveis de recursos do sistema, todas as placas de rede são parecidas: elas precisam de um endereço de IRQ, de um canal de DMA e de um endereço de I/O. Uma vez configurados corretamente, as placas estarão aptas a trafegar a informação pelas redes. A configuração do canal de IRQ é necessária para que a placa de rede possa chamar o processador quando tiver dados a entregar. Já o canal de DMA é utilizado para transferir os dados diretamente à memória, diminuindo a carga sobre o processador. O endereço de I/O informa ao sistema onde estão as informações que devem ser movidas. Um outro dado importante para estabelecer a comunicação entre placas de rede, é o endereçamento de nó, também chamado de “mac address” Este é um numero em hexadecimal, composto de 48 bits, único e criado durante o processo de criação da placa. Este endereço é utilizado por dispositivos que trabalham na camada de enlace do modelo OSI. Modem É o dispositivo eletrônico que transforma o sinal digital em analógico e vice- versa. A origem da palavra modem é devida à expressão “modulador e demodulador”. O processo de conversão dos sinais digitais para analógicos é chamado de modulação, e é de onde se inicia a transmissão. Para que haja a comunicação, os modens devem estar trabalhando nos mesmos padrões. Os modens podem ser divididos em: Modem para acesso discado Utilizam a linha telefônica para realizar uma chamada diretamente a um provedor de acesso, com modens de recebimento de chamadas. Baixas velocidades. Taxas em Kilobits/s. Modem de banda larga Utilizam meios de transmissão para estabelecer a comunicação usando tecnologias como XDLS. (ADSL - Asymmetric Digital Subscriber Line). Altas velocidades. Taxas em Megabits/s. Repetidores (HUB) Repetidor ou HUB funciona como a peça central em uma rede de topologia estrela, ele recebe os sinais transmitidos pelas estações e retransmite-os para todas as demais. Trabalham no nível físico do modelo OSI. Existem dois tipos de repetidores, os passivos e os ativos. Repetidores Passivos Funcionam como um espelho, pois simplesmente refletem os sinais recebidos para todas as estações que estão conectadas a eles. Como eles apenas refletem o sinal, não fazem nenhum tipo de amplificação do sinal, o comprimento máximo permitido entre o HUB e a estação não pode ser superior a 50 metros, utilizando um cabo de par trançado. Normalmente não possuem alimentação de energia e funcionam como um concentrador de fios. Repetidores Ativos Além de refletir, reconstitui o sinal enfraquecido e retransmite-o, fazendo com que a sua distância máxima duplique em relação ao HUB passivo, sendo de 100 metros entre a estação e o repetidor. Possui alimentação de energia, e amplifica o sinal. Ponte (BRIDGE) Funcionando no nível de enlace da camada OSI, a bridge tem como finalidade traduzir os quadros de diferentes tecnologias, ou seja, interligar redes de diferentes tecnologias. Um exemplo comum é a interligação entre uma rede Ethernet e uma rede Token Ring. Apesar de as duas redes possuírem arquiteturas diferentes e incompatíveis entre si, é possível estabelecer a comunicação usando um protocolo único, no caso o TCP/IP, por exemplo. Se todos os devices de rede estão falando a mesma língua, basta quebrar a barreira física das arquiteturas de rede diferentes utilizando uma ponte, ou BRIDGE. Como funciona a ponte? Em cada ponte existe um microprocessador que analisa os endereços específicos da camada de enlace e armazena-os em uma tabela interna. Estes endereços estão associados à rede que o equipamento conectado pertence. Quando um pacote é enviado do device de rede e recebido pela ponte, esta analisa o seu conteúdo para verificar o campo do endereço de destino. Se a ponte identifica que o pacote está endereçado para a mesma rede à qual pertence, então ela encaminha para o dispositivo. Caso contrário, a BRIDGE encaminha para a outra sub-rede. Comutador (SWITCH) Funcionando no nível de enlace da camada OSI, o comutador tem a mesma função de uma ponte, ou seja, “ouvir” o tráfego de cada porta Ethernet, descobrir a qual porta cada dispositivo está conectado e armazenar essa informação em sua tabela. Uma vez identificado o endereço de destino, o switch consulta a tabela e envia o tráfego diretamente para a porta de destino. A diferença entre eles é que o comutador realiza a troca de informações entre vários devices simultaneamente. Pode ser considerado como uma ponte com várias portas. Além de ser mais veloz que a ponte, o SWITCH pode suportar diversos tipos de interfaces. (Cabo de fibra ótica, Cat 5, Cat 6, Ethernet 10 mbps, 100 mbps, 1 gbps). O Switch, uma vez conectado à rede, automaticamente já trabalha para identificar os endereços dos devices que estão conectados às suas portas, mas, por ser um equipamento gerenciável, ou seja, possuir um software para gerenciamento, sua função de implementação pode variar em quatro níveis: Classe1 Switch não gerenciado. Função de comutar os pacotes entre as portas, não possui suporte a VLAN´s. Classe 2 Swicth gerenciado. Função de comutar os pacotes e criação de VLAN´s ( Virtual LAN’s ). Classe 3 Swich Layer 3. Além de possuir todas as características da classe anterior, realiza alguns serviços de camada três (Camada de redes modelo OSI). Classe 4 Realiza a comutação das camadas 4 a 7 do modelo OSI. VLAN – Virtual Local Área Network As VLAN’s funcionam como uma rede virtual, utilizada para transporte de informação somente para os devices que pertencem a ela. Como o SWITCH possui informação de endereçamento em sua tabela interna, o administrador de rede, para diminuir o tráfego de difusão, pode criar redes virtuais para que pareçam que estão em uma rede física. Os SWITCHES podem ser classificados em: Cut-Trough O Switch examina apenas o endereço MAC do quadro e envia para o destinatário. Devido a este processo o equipamento tem baixa latência. Store-and-Forward O switch armazena todo o quadro, examina o endereço MAC, avalia o CRC e encaminha o quadro para o endereço de destino. Fragment free Para esse método, o SWITCH tenta utilizar os benefícios dos métodos anteriores, "Store and Forward" e "Cut Through", onde se limita a analisar os primeiros 64 bytes do quadro, onde as informações de endereçamento estão armazenadas. Roteador (ROUTER) Funcionando no nível de redes da camada OSI, o roteador é o dispositivo que decide qual é o melhor caminho que o tráfego de informações deve seguir, baseado em endereços lógicos. Este processo se chama roteamento. O roteamento segue uma regra definida na chamada tabela de roteamento que pode ser configurada manualmente ou através de protocolos de roteamento (RIP, OSPF, IGRP , BGP, EGP). Com base nessa tabela, o device analisa o endereço IP de destino dos dados de entrada e direciona os dados para uma porta de saída. O roteador também pode funcionar como um gateway de aplicação, utilizando as camadas superiores do modelo OSI, o que coincide com o modelo TCP/IP. Neste caso, utilizando os protocolos das camadas superiores o roteador pode fazer algumas funções como, por exemplo: NAT - Network Address Translation O protocolo TCP/IP possui um endereço de origem e destino. Com o NAT esses dados podem ser modificados, tanto o de origem quanto o de destino. A função do roteador para realizar o NAT é utilizada para converter um único endereço exclusivo da Internet em vários endereços de rede privada. Ou seja, como medida de segurança, o endereço de origem, no caso uma máquina dentro da rede interna, é trocado pelo endereço externo do roteador. Assim, usuários da internet não poderão obter informações referentes ao endereçamento da rede interna. DHCP (Dynamic Host Configuration Protocol) O protocolo DHCP é utilizado para definir automaticamente endereços IP para computadores. Assim não é necessário configurar seus endereços de rede manualmente. Essa operação se dá utilizando o protocolo RARP da camada de enlace. Esse protocolo coleta as informações de hardware (MAC Address) e as associa a um endereço IP (lógico). Essa função também pode ser realizada por equipamento específico para essa função: o servidor DHCP. Firewall O roteador também pode exercer a função de filtro de pacotes selecionando e permitindo quais deles podem transpassá-lo. Utilizando listas de acesso, o roteador pode fazer filtros com as listas de acessos, proibindo e permitindo tráfegos específicos tanto para dentro quanto para fora de sua rede. Entre os dispositivos abaixo, qual deles trabalha na camada 1 do modelo OSI. HUB Qual dos protocolos abaixo não um protocolo de roteamento? RARP Para uma placa de rede funcionar, algumas informações precisam estar configuradas no sistema operacional. Qual das informações abaixo não representa uma configuração. PnP Aula 4: Arquiteturas de aplicação e topologias de rede Arquitetura de Computadores Segundo BATTISTI, 2001, essa arquitetura é definida como: “Arquitetura onde o processamento da informação é dividido em módulos ou processos distintos. Um processo é responsável pela manutenção da informação (Servidor), enquanto que outro é responsável pela obtenção dos dados (Cliente)”. Ele defende ainda ser um “Sistema inovador surgido na década de 90 e muito utilizado no meio corporativo, é baseado em três componentes principais: gerenciamento de banco de dados, que tem a função de servidores; redes, que funcionam como o meio de transporte de dados e, finalmente, os softwares para acesso aos dados: Clientes”. Segundo VASKEVITCH, 1995. “É uma abordagem da computação que separa os processos em plataformas independentes que interagem, permitindo que os recursos sejam compartilhados enquanto se obtém o máximo de benefício de cada dispositivo diferente, ou seja, Cliente/Servidor é um modelo lógico”. Topologia esta relacionada com a disposição dos equipamentos dentro de um ambiente. Na prática, essa arquitetura define onde está a informação e de que forma se pode chegar a ela. Se for levada em consideração a sua distribuição geométrica, é conhecida como topologia física. Caso a arquitetura estiver relacionada com a forma que os equipamentos interagem, ela é conhecida como topologia lógica. As topologias físicas foram descritas nos capítulos anteriores; para esse capitulo, falaremos das topologias lógicas. Para haver um sistema básico de comunicação, é necessário termos pelo menos 5 elementos básicos. Existem 3 tipos básicos de comunicação, ponto a ponto, cliente servidor e ponto multiponto. Ou somente multiponto. Ponto a Ponto É quanto a comunicação é estabelecida utilizando apenas dois pontos interligados (receptor e transmissor). Para esse tipo de arquitetura, não existe um compartilhamento do meio com os outros vários usuários. 1 PC Conectado a um Modem, conectado a uma redes, conforme ao lado. Ponto-Multiponto É o caso de um ponto central enviar e receber informações de vários pontos da rede, utilizando um mesmo meio, e derivando ao longo do cominho. 1 PC conectado a um roteador e dividindo 2 redes. Existem derivações lógicas para endereçamento de pacotes de dados. Unicast É uma forma de envio de informações direcionadas para somente um único destino. Multicast É a forma de envio de informações para múltiplos destinos. Ele é direcionado para um grupo específico e pré-definido de destinos possíveis. Um exemplo comum é a utilização de sub-redes, ou pedaços de redes para obter um endereçamento de rede. (Dhcp) Broadcast Forma de envio de informações onde a mensagem é enviada para todos os destinos possíveis da rede. Vocês verão, nos próximos capítulos, que existe no endereçamento IP[,] um endereço especifico que tem essa função. (Endereço de broadcast da rede) Domínio de Broadcast É uma forma de envio de informações onde a mensagem, através de um segmento lógico, é capaz de se comunicar com outros equipamentos, sem a necessidade de um dispositivo de roteamento. Basta fazer uma segmentação lógica da rede. Não é recomendável criar vários domínios de broadcast, pois, aumenta o congestionamento das informações, latência e outros fatores que degradam a eficiência e qualidade da rede. Sistemas Operacionais de Redes Os equipamentos, que antes funcionavam isoladamente, possuíam somente um Sistema Operacional Local (SOL), com o objetivo de controle especifico do hardware local. Com a evolução das redes de computadores, os equipamentos tiveram que se adaptar e passaram a ter funções especificas para o processamento em redes. São os casos de computação paralela, computação em nuvem, compartilhamento de devices, dentre outros. Surgiram os Sistemas Operacionais de Redes (SOR), como uma extensão dos antigos Sistemas Operacionais Locais (SOL), com o objetivo de tornar transparentes o uso dos recursos compartilhados da rede. Arquiteturas Peer-to-Peer e Cliente-Servidor A comunicação entre as aplicações e o Sistema Operacional baseia-se, normalmente, em interações solicitação/resposta, onde a aplicação solicita um serviço (abertura de um planilha, impressão etc.) através de uma chamada ao sistema operacional este, em resposta à chamada, executa o serviço solicitado e responde, informando o status da operação (sucesso ou falha) e transferindo os dados resultados da execução para a aplicação. No modo Cliente-Servidor, a entidade que solicita o serviço é chamado cliente e a que presta o serviço é o servidor. A interação cliente-servidor constitui-se no modo básico de interação dos sistemas operacionais de redes. Também existem casos onde a estações disponibilizam a outras estações o acesso a seus recursos através da rede através de um modulo servidor. Nas estações que utilizam o módulo cliente, o SOR recebe o pedido de acesso a um recurso localizado em outra estação da rede, monta uma mensagem contendo a solicitação e a envia ao módulo servidor da estação, onde esta sendo executado o serviço. Na estação remota, o SOR recebe a solicitação, providencia a execução. Quando o SOR, na estação que requisitou o serviço, recebe a mensagem com a resposta, ele faz sua entrega a aplicação local. As funções necessárias do SOR, nos módulos clientes e servidor, são diferentes. No módulo cliente, o SOR praticamente restringe a fornecer serviços de comunicação de pedidos para o servidor e a entregar as respostas às aplicações. Já o módulo servidor, além das funções de comunicação, é responsável por vários outros serviços como, por exemplo, o controle do acesso aos recursos compartilhados por vários usuários através da rede, assim evita, por exemplo, que um usuário não autorizado apague arquivos que não lhe pertencem. Como forma de ilustração chamaremos os módulos de SOR em 2 tipos: SORC: Sistema Operacional de Redes com módulo Cliente SORS: Sistema Operacional de Redes com módulo Servidor Na arquitetura Cliente-Servidor, os equipamentos da rede dividem-se em estações clientes, onde possuem as funções do módulo cliente acopladas ao sistema operacional local e em estações servidoras. Os equipamentos chamados de estações servidoras possuem as funções do módulo servidor e, opcionalmente, podem possuir também as funções do módulo cliente. Na figura abaixo a ultima representação é de um equipamento com módulo servidor. Na arquitetura Peer-to-Peer, todas as estações possuem no sistema operacional de redes os dois módulos: SORC e SORS. Vejamos agora, alguns tipos de serviços prestados pelos servidores. Servidor de Arquivos Função de oferecer aos módulos clientes os serviços de armazenamento, de compartilhamentos de discos, controle de acesso a informações. Deve ser criado, obedecendo regras de autorização para aceitar pedidos de transações das estações clientes e atendê-los utilizando seus dispositivos de armazenamento de massa. A utilização pelo usuário é em substituição ou em adição ao sistema de arquivos existente na própria estação local. Servidor de Banco de Dados Também conhecido como sistema de gerenciamento de banco de dados (SGBD), usa um servidor de arquivo para armazenar dados, num padrão onde é lido por uma aplicação específica. Utilizando-se de uma linguagem codificada chamada Structured Query Language (SQL), o usuário consegue enviar uma informação e o servidor entendendo o pedido, executa a consulta, processa a informação e retorna com o resultado. Essa rotina é feita localmente no servidor e de banco de dados e a resposta é enviada para o modulo cliente. Servidor de Impressão O servidor de impressão tem como função gerenciar e oferecer serviços de impressão a seus módulos clientes, podendo possuir umas ou mais impressoras acopladas; este pode priorizar trabalhos gerenciando a fila de impressão, dando prioridade a trabalhos mais urgentes. Servidor de Gerenciamento Com a função de monitorar o tráfego de dados, verificar o estado e o desempenho de uma estação da rede, ou monitorar o meio de transmissão e de outros sinais, o servidor de gerenciamento é necessária para a detecção de erros, diagnoses e para resoluções de problemas, tais como falhas no meio, diminuição do desempenho etc. Topologia Lógica Apesar de termos já estudado sobre topologias nos capítulos anteriores, é necessário fazer uma comparação entre a física e lógica. Para a topologia lógica, existem 2 principais métodos de transmissão de dados : A topologia também pode ser analisada sob dois aspectos: Topologia Física Estrutura definida por sua topologia física e de acordo com a forma que os enlaces físicos estão organizados. Topologia Lógica Estrutura definida por sua topologia lógica e de acordo com o comportamento dos equipamentos conectados. Uma rede pode ter as topologias física e lógica completamente diferentes. Alguns exemplos: A topologia física Barramento: Topologia física de uma rede Ethernet com cabo coaxial (10Base2) Topologia lógica de rede Ethernet baseada em HUBs A topologia física Estrela: Topologia física de um Mainfraime com terminais Topologia física de uma rede Ethernet com 1 HUB e computadores Topologia física de uma rede Ethernet com 1 Switch e computadores Topologia lógica de uma rede Ethernet com 1 Switch e computadores Como é chamado a forma de envio de informações direcionadas para somente um único destino. UNICAST Qual das características abaixo define uma arquiteturas Peer-to-Peer? Possui ambos os módulos, cliente e Servidor Qual dos servidores de aplicação listados abaixo possuem uma característica de linguagem estruturada para procura de dados. Servidor de Banco de Dados Aula 5: A família de protocolos TCP/IP Nesta aula, iremos estudar alguns protocolos do modelo TCP/IP. Devido aos vários protocolos que o modelo TCP/IP possui, estudaremos os protocolos oferecidos pela camada de aplicação do modelo OSI: Telnet, FTP e TFTP, SMTP, SNMP e em seguida estudaremos os protocolos da camada de transporte: TCP, UDP, ICMP e IP. Pilha do Protocolo TCP/IP Camada de Aplicação Ao desenvolver uma aplicação o desenvolvedor utilizará uma as duas arquiteturas mais utilizadas em aplicações de rede: a arquitetura cliente servidor ou a arquitetura P2P, já estudadas na aula passada. No caso dos protocolos da camada de aplicação da pilha TCP/IP, eles utilizam a arquitetura cliente servidor. Em aplicações que empregam a arquitetura cliente-servidor um único servidor deve ser capaz de atender a todas as requisições de seus clientes. Camada de Transporte Posicionada entre as camadas de Aplicação e Redes, a camada de transporte é fundamental na arquitetura de rede em camadas, pois desempenha o papel fundamental de fornecer serviços de comunicação diretamente aos processos de aplicação que rodam em máquinas diferentes. Isto é, fornece uma comunicação lógica entre estes processos. Os processos de aplicação utilizam a comunicação lógica provida pela camada de transporte sem a preocupação com os detalhes da infraestrutura física utilizada para transportar as mensagens: Divide os dados que chegam da camada de aplicação em segmentos e passa-os com o endereço de destino para a próxima camada para transmissão, que neste caso será a camada de rede. Fornece uma comunicação lógica entre os processos do aplicativo em execução entre hosts diferentes, que pode ser orientada à conexão e não orientada à conexão. A transferência de dados na camada de transporte também pode ser categorizada como confiável ou não confiável, com informações de estado ou sem informações de estado; Utiliza o conceito de porta para a identificação dos processos de aplicação; Especifica 2 tipos de protocolos e a utilização de um ou de outro depende das necessidades da aplicação (SNMP-UDP, FTP-TCP): TCP (Transmission Control Protocol) Orientado à conexão e garante a transferência confiável de dados. UDP (User Datagram Protocol) Não orientado à conexão, simples extensão do IP e não garante a entrega de dados. Entrega Confiável A entrega confiável de dados assegura a entrega dos segmentos ao seu destino em uma sequência adequada, sem qualquer dano ou perda. Um protocolo confiável como o TCP cuida de todos os problemas fundamentais de rede como congestionamento, fluxo de dados e duplicação. Entrega não Confiável A entrega não confiável de dados não promete a entrega dos segmentos ao seu destino. No processo de entrega não confiável de dados, os segmentos podem ser corrompidos ou perdidos. Um protocolo não confiável como o UDP assume que a rede subjacente é completamente confiável. Os protocolos não confiáveis não cuidam de alguns problemas fundamentais como congestionamento, fluxo de dados e duplicação. Entrega com informação de estado x sem informação de estado A entrega de dados com informações de estado utiliza o conceito de “sessão”, em que um lote de solicitações é enviado e respostas são recebidas. As informações divulgadas em uma solicitação podem ser utilizadas para modificar as solicitações futuras. Na entrega de dados sem informação de estado, cada solicitação é autocontida, sem quaisquer outras informações associadas a qualquer outras informações associadas a qualquer outra solicitação. Portas Identificam os processos de origem e de destino viabilizando a comunicação fim-a-fim. O Sistema operacional oferece uma interface (socket) (linkar com o texto sobre socket no final do arquivo) que permite às aplicações especificarem ou acessarem portas em um determinado host enviando e recebendo datagramas de forma independente. As portas são classificadas em: Reservadas (padronizadas através da RFC 1070) 0 - 1023 Liberadas (automaticamente definida pelo SO para aplicações clientes e/ou portas de servidores de aplicações ainda não reconhecidas formalmente na Internet) 1024 a 65535 Exemplos de Portas conhecidas Núm. porta TCP Descrição 20 Servidor FTP (File Transfer Protocol, protocolo de transferência de arquivo) (canal de dados) 21 Servidor FTP (canal de controle) 23 Servidor Telnet 53 Transferências de zona DNS (Domain Name System, sistema de nomes de domínios) 80 Servidor da Web (HTTP, Hypertext Transfer Protocol, protocolo de transferência de hipertexto) 139 Serviço de sessão de NetBIOS Núm. de porta UDP Descrição 53 Consultas de nomes DNS (Domain Name System, sistema de nomes de domínios) 69 Trivial File Transfer Protocol (TFTP) 137 Serviço de nomes de NetBIOS 138 Serviço de datagrama de NetBIOS 161 Simple Network Management Protocol (SNMP) 520 Routing Information Protocol (RIP, protocolo de informações de roteamento) Camada de Rede A camada de rede é um das camadas mais complexas da pilha de protocolo, pois implementa o serviço de comunicação entre dois hosts A e B e que há um pedaço da camada de rede em cada um dos hosts e roteadores da rede. Os roteadores ao longo do enlace examinam campos de cabeçalho em todos os datagramas IP que passam por ele. A camada de rede transporta segmentos do hospedeiro transmissor para o receptor. No lado transmissor, encapsula os segmentos em datagramas e no lado receptor, entrega os segmentos à camada de transporte. As funções mais importantes desta camada são: A comutação dos pacotes, ou seja, ao chegar um pacote no enlace de entrada de um roteador, ele deve ser conduzido para a saída apropriada do roteador. O roteamento, a camada de rede, deve determinar a rota a ser seguida pelos pacotes desde a origem até o destino. A imagem abaixo apresenta os três componentes essenciais da camada de rede: O componente de roteamento que determina o caminho que um datagrama segue desde a origem até o destino, e que iremos estudar nas próximas aulas. Dispositivo para comunicação de erros de datagramas e para atender requisições de certas informações da camada de rede, o protocolo ICMP; (aqui fazer um link para a explicação do protocolo). O protocolo IP, que cuida das questões de endereçamento. IP O protocolo IP (Internet Protocol) padronizado pela RFC 2460, tem como suas principais funções o endereçamento e o repasse na internet. Atualmente existem duas versões do protocolo do protocolo IP em uso: a versão mais utilizada, a versão 4, normalmente denominada Ipv4 (RFC 791) e a versão 6, Ipv6 (RFC 2460 e RFC 4291), que foi proposta para substituir o Ipv4. Entre as funções da camada IP está: O fornecimento de serviços de endereçamento e empacotamento. Identificar hosts locais ou remotos; Fragmentar o pacote caso a rede de destino utilize um tamanho diferente de pacote, para que ele seja transmitido sem erros; Remontar ou empacotar o pacote no host destino; Descartar pacotes ultrapassados; Enviar os pacotes designados aos protocolos da camada de nível mais alto. IP fragmentação e remontagem Durante a transmissão dos pactes é possivel que os enlaces de rede possuam um MTU (Tamanho máximo de transferência) diferentes. O MTU corresponde ao maior frame que pode ser transportado pela camada de enlace. A rede Ethernet por exemplo possue um MTU de 1.518 bytes. Isso significa dizer que datagramas IP maior que o MTU permitdo em uma rede Ethernet deverá ser dividido (fragmentado) dentro da rede. Desta forma um datagrama poderá dar origem a vários datagramas. A “remontagem” destes datagramas ocorrerá apenas no destino final. O cabeçalho IP é usado para identificar e ordenar datagramas relacionados. Exemplo Um datagrama de 4000 bytes e MTU = 1500 bytes Endereço IP O protocolo IP utiliza um endereço de 32 bits para identificar de forma unívoca um host na rede, estes endereços estão associados a interfaces e não ao host ou ao roteador. Este endereços são escrito em notação decimal separada por ponto, na qual cada byte do endereço é escrito em sua forma decimal e separado dos outros bytes por um ponto. Exemplo de um endereço IP: 192.168.0.1 Iremos estudar nas próximas aulas detalhamento o endereçamento do protocolo IP. Exemplo de uma rede utilizando endereçamento IP Cabeçalho (Header) IP Exemplo (protocolo SMTP) Vamos examinar a troca de mensagem entre um cliente (C) e um servidor SMTP (S), onde o nome do cliente é crepe.fr e do servidor é hamburger.edu. A transcrição a seguir começa assim que a conexão TCP é estabelecida: Neste exemplo o cliente enviou uma mensagem (* Do you like ketchup? How about picles?”) do servidor de correio crepe.fr ao servidor de correio hamburguer.edu. Como parte do diálogo o cliente emitiu cinco comandos: HELO, MAIL, RCPT TO, DATA e QUIT e por último o “.” Que indica o final da mensagem para o servidor. O servidor emite respostas a cada comand e cada resposta tem uma codificação. Telnet O protocolo Telnet, padronizado pela RFC´s 854 a 861l é um protocolo simples de terminal remoto. Ele permite que um usuário em determinado site estabeleça um conexão TCP com um servidor login situado em outro site. A partir do momento que se inicia a sessão de trabalho remoto, qualquer coisa que é digitada é enviada diretamente para o computador remoto. Apesar do usuário continuar ainda no seu próprio computador, o telnet torna seu computador invisível enquanto estiver rodando. O servidor recebe o nome transparente, porque faz com que o teclado e o monitor do usuário pareçam estar conectados diretamente à máquina remota. O protocolo Telnet oferece três serviços básicos: Define um terminal virtual de rede, que proporciona uma interface padrão para sistemas remotos; programas clientes não têm que compreender os detalhes de todos os possíveis sistemas remotos, eles são feitos para usar a interface padrão; Inclui um mecanismo que permite ao cliente e ao servidor negociarem opções e proporcionar um conjunto de opções padrão; Trata ambas as pontas da conexão simetricamente. Assim, ao invés de forçar o cliente para conectar-se a um terminal de usuário, o protocolo permite um programa arbitrário tornar-se um cliente. A sessão remota inicia especificando em qual computador o usuário deseja conectar-se. Será então solicitado um username e uma password para acessar o sistema remoto. O acesso a servidores telnet poderá ocorrer de dois modos: Através da linha de comando; E a partir de aplicativos através de interface gráfica; FTP O FTP (File transfer Protocol), padronizado pela RFC 959, está entre os protocolos de aplicativos mais antigos ainda em uso na internet. Ele precede o TCP e o IP. Foi projetado para permitir o uso interativo ou em lote. Porém a maioria dos usuários invoca o FTP interativamente, através da execução de um cliente FTP que estabelece uma comunicação com um servidor especificado para transferir arquivo. Como o FTP funciona? O usuário interage com o FTP por meio de um agente de usuário FTP. Em primeiro lugar ele fornece o nome do servidor FTP, o que faz com que o processo cliente do FTP estabeleça uma conexão TCP com o servidor FTP remoto. O usuário então fornece sua identificação e senha, que são enviadas pela conexão TCP como parte dos comandos FTP. Assim que autorizados pelo servidor, o usuário copia um ou mais arquivos armazenados no sistema de arquivo local para o sistema remoto ou vice-versa. Existe também a possibilidade de sistemas de software invocarem o FTP automaticamente, sem exigir que o usuário interaja com um cliente FTP. O acesso a servidores FTP pode ocorrer de dois modos: Através da linha de comando, presente nas distribuições UNIX, Linux e Windows; E a partir do browser. Para realizar uma conexão a um servidor ftp através da linha de comando, basta digitar: ftp nomehost Onde nomehost é o nome da máquina em que se encontra o servidor ftp. Por exemplo: ftp estacio.edu.br O protocolo FTP permite duas formas de conexão: Usuário já cadastrado no servidor Usuário anônimo Usuário cadastrado ftp estacio.edu.br Connected to estacio.edu.br 220 maquina FTP server ready. Name (maquina:user): aluno 331 Password required for aluno Password: ******** 230 User aluno logged in. ftp> _ A partir daí, utilizar os comandos de FTP. Usuário "anônimo" No caso de não ser cadastrado no servidor FTP desejado, entre como usuário "anônimo": ftp estacio.edu.br Connected to estacio.edu.br. 220 maquina FTP server ready. Name (maquina:user): anonymous 331 Guest login ok, send ident as password. Password: aluno@estacio.edu.br 230 Guest login ok, access restrictions apply. ftp> _ Neste caso, em vez de usar uma senha de acesso, use uma identificação, em geral o endereço de e-mail. Ao usar programas com interface gráfica, o uso dos comandos é transparente, ou seja, não é preciso conhecer os comandos, pois já estão incluídos na interface. Os comandos, do cliente para o servidor, e as respostas, do servidor para o cliente, são enviados por meio de conexão de controle no formato ASCII de 7 bits. (aqui fazer um link para o arquivo com comandos e respostas) TFTP O protocolo TFTP (Trivial File Transfer Protocol) é direcionado para aplicativos que não necessitam de interações complexas entre o cliente e servidor. Ele restringe operações para simples transferências de arquivos e não fornece autenticação. Por ser mais restritivo, o software do TFTP é muito menor que o FTP. O TFTP não requer um serviço de stream confiável, utilizando então o protocolo UDP. O lado transmissor transmite um arquivo em blocos de tamanho fixo (512) bytes e aguarda a confirmação de cada bloco antes de enviar o próximo. O receptor confirma cada bloco mediante recibo. Uma vez iniciada uma solicitação de escrita ou leitura, o servidor usa o endereço IP e o número de porta de protocolo UDP do cliente para identificar as operações subsequentes. Como funciona? O primeiro pacote enviado requisita uma transferência de arquivos e estabelece a interação entre o cliente e servidor; Os blocos de arquivos são numerados em sequência, a começar pelo número um. Cada pacote de dados contém um cabeçalho que especifica o número do bloco que ele transporta e cada confirmação contém o número do bloco que está sendo confirmado. Um bloco com menos de 512 bytes indica o final do arquivo. SMTP O protocolo SMTP (Simple Mail Transfer Protocol), definido pela RFC 5321, está no centro do correio eletrônico. Antes de detalharmos o funcionamento do protocolo SMTP é importante que tenhamos a compreensão do funcionamento de um sistema de correio eletrônico. Um sistema de correio da Internet utiliza três componentes: agentes de usuários, servidores de correios e o protocolo SMTP. Agentes de usuário Permitem que os usuários leiam, respondam, retransmitam, salvem e componham mensagens. O Outlook da Microsoft, Apple Mail e o Mozilla Thunderbird são exemplos de agentes de usuários com interface gráfica. Servidores de correio Forma o núcleo da infraestrutura do e-mail. Cada destinatário tem uma caixa postal localizada em um dos servidores do correio. Protocolo SMTP É o protocolo da camada de aplicação do correio eletrônico da Internet, utiliza serviço confiável de ados do TCP para transferir mensagens do servidor de correio do remetente para o destinatário. Uma mensagem típica de correio inicia sua jornada no agente de usuário do remetente, vai até o servidor de correio do remetente e viaja até o servidor de correio do destinatário, onde é depositada na caixa postal . Como funciona o protocolo SMTP Como acontece com a maioria dos protocolos de camada de aplicação, o SMTP, tem dois lados: um lado cliente, que funciona no servidor de correio do remetente, e um lado servidor, que funciona no servidor de correio do destinatário. Para ilustrar a operação básica do protocolo SMTP, vamos percorrer um cenário comum. Suponha que Maria deseja enviar uma mensagem para André: 1. Quando Maria deseja enviar uma mensagem para André, ela fornece o endereço eletrônico de André, andre@exemplo.com.br, através de seu agente de usuário para correio; 2. O agente de correio de Maria envia a mensagem para seu servidor de correio, onde a mensagem é colocada em uma fila de mensagens; 3. O lado cliente do protocolo SMTP, que funciona no servidor de correio de Maria, vê a mensagem na fila e abre uma conexão TCP para um servidor SMTP, que funciona no servidor de correio de André. 4. Após alguns procedimentos iniciais de apresentação, o cliente SMTP envia a mensagem de Maria para dentro da conexão TCP; 5. No servidor de correio de André, o lado servidor do protocolo SMTP recebe a mensagem e a coloca na caixa postal dele. 6. André chama seu agente de usuário para ler a mensagem quando for mais conveniente para ele. Agora que compreendemos o funcionamento do protocolo SMTP, vamos examinar um exemplo de troca de mensagem entre um cliente e um servidor. SNMP O protocolo SNMP (Simple Network Management Protocol) é o protocolo padrão para administrar uma rede. Ele define como um gerente se comunica com o agente. Possui três versões 1, 2 e 3. A versão 3, a mais atual, difere das demais, por possuir recursos de segurança capazes de criptografar a string da comunidade SNMP. Apesar disso, a versão mais utilizada do SNMP ainda é a versão 2c. Antes de conhecermos os detalhes do funcionamento do protocolo é imprescindível que respondamos a seguinte pergunta: Como um administrador de rede pode descobrir problemas e isolar suas causas? Através da utilização de software de gerência de rede que permite a um gerente monitorar e controlar componentes da rede. Ele permite a um gerente interrogar dispositivos como hosts, roteadores, comutadores e bridges para determinar seu status, bem como obter estatísticas sobre as redes as quais se ligam. Os protocolos que um gerente de rede utiliza para monitor e controlar dispositivos de rede opera na camada de aplicação e como os demais protocolos da pilha TCP/IP adota o modelo cliente-servidor: Um programa aplicativo no computador do gerente atua como um cliente e um programa aplicativo no dispositivo de rede atua como um servidor. O cliente no computador do gerente usa o protocolo de transporte convencional (TCP ou UDP) para estabelecer a comunicação com o servidor, recebendo o nome de gerente e o aplicativo que executa em um dispositivo de rede é chamado de agente. O protocolo SNMP define como um gerente se comunica com o agente, através da: Definição do formato das requisições que um gerente envia a um agente. Definição das respostas que um agente retorna. Na realidade o SNMP especifica que uma mensagem SNMP é codificada usando-se um padrão conhecido como ASN.1 (Abstract Syntax Notation.1). A SN.1 é a linguagem usada para representar tipos e estruturas de gerenciamentos, permitindo a visualização e alteração dos OIDs. Um OID representa um dos objetos gerenciáveis. Onde 1.3.6.1.2.1 é o refixo MIB padrão, 7 é o código para o protocolo Udp e 1 para o objeto udpINDatagrams que representa o número total de datagramas UDP entregues aos usuários UDP. (acho que aqui podemos linkar com o arquivo no final do texto intitulado MIB). A cada objeto ao qual o protocolo SNMP tem acesso deve ser definido e determinado um nome único. Programas gerentes e agente devem concordar nos nomes e nos significados das operações de carga e armazenamento. Coletivamente, o conjunto de Gerente Agente todos os objetos que o protocolo SNMP pode acessar é conhecido como Management Information Base (MIB). Como o SNMP Funciona? Seu funcionamento é baseado em polling, ou seja, em períodos de tempos para realização de coleta de informação. Ele utiliza o protocolo UDP para suas comunicações de atribuições, através das portas 161 e 162. Os modos de atuação desse protocolo podem ser RO (Read-only) ou RW (Read-Write). O Gerente SNMP É quem realizada as consultas e manipulações SNMP. Os gerentes mandam mensagens de solicitações (requests) e recebem mensagens de respostas (responses). Existem três tipos de ações que os gerentes executam: GET, GET Bulk (GETs múltiplos) SET (alteração de valor). O Agente SNMP É quem interage com a MIB. O agente espera a solicitação dos gerentes e ordena respostas (responses) de SNMP para eles. Além disso, os agentes podem enviar TRAPS, que são mensagens de alertas unidirecionais para os gerentes. Os TRAPS são disparados automaticamente quando um evento de mudança de estado for acionado. ICMP O Internet Control Message Protocol – ICMP, padronizado pela RFC 792, é o protocolo que o IP utiliza para enviar mensagens de erro e mensagens informativas. E o ICMP usa o protocolo IP para enviar suas mensagens. Quando um roteador, por exemplo, tem uma mensagem ICP para enviar, ele cria um datagrama IP e encapsula a mensagem do ICMP no datagrama IP. A mensagem ICMP é colocada na área de dados do datagrama. Embora cada mensagem ICMP tenha seu próprio formato, todas começam com os mesmos três campos: Um campo tipo de mensagem, com oito bits inteiros, que identifica a mensagem. Um campo Código, com oito bits, que fornece informações sobre o tipo de mensagem, Um campo Soma de verificação, de 16 bits. O campo tipo define o significado da mensagem, assim como o seu formato: Quando um roteador, por exemplo, não consegue enviar ou entregar um datagrama IP, ele envia uma mensagem de destinatário inacessível de volta à origem. O campo Código desta mensagem contém um número inteiro que descreve também o problema. Os valores possíveis são: Lista de Mensagens ICMP Tipo Nome 0 Echo Reply 1 Não atribuído 2 Não atribuído 3 Destination Unreachable 4 Source Quench 5 Redirect 6 Alternate Host Address 7 Não atribuído 8 Echo 9 Router Advertisement 10 Router Selection 11 TIme Exceeded 12 Parameter Problem 13 Timestamp 14 Timestamp Reply 15 InformatIon Request 16 Information Reply 17 Address Mask Request 18 Address Mask Reply 19 Reservado (por Segurança) 20-29 Reservado (por Experimento de Força) 30 Traceroute 31 Datagram Conversion Error 32 Mobile Host Redirect 33 lPv6 Where-Are-You 34 lPv6 I-Am-Here 35 Mobile Registration Request 36 Mobile Registration Reply 37-255 Reservado TCP O TCP (Tranmission Control Protocol – Protocolo de Controle de Transmissão), RFCs: 793, 1122, 1323, 2018, 2581, é um dos protocolos da pilha TCP/IP que está localizado na camada de transporte. O serviço oferecido pelo TCP tem sete características importantes: Orientação à conexão: Um aplicativo primeiro deve solicitar uma conexão com um destino, e então usar a conexão para transferir dados. Comunicação ponto a ponto: Cada conexão de TCP tem exatamente duas extremidades. Confiabilidade completa: O protocolo garante que os dados enviados através de uma conexão serão entregues exatamente como enviados, sem dados faltando ou fora de ordem. Comunicação Full Duplex: Uma conexão TCP permite que os dados fluam em uma ou outra direção e permite que um ou outro programa aplicativo envie dados a qualquer hora. Ele pode armazenar nos buffers dados que partem e que chegam em ambas as direções, possibilitando que um aplicativo envie dados e então continue uma computação enquanto os dados estão sendo transferidos. Interface de stream: Um aplicativo envia uma sequência contínua de octetos através de uma conexão. Porém não garante que os dados serão entregues ao aplicativo receptor em pedaços do mesmo tamanho que foram transferidos pelo aplicativo remetente. Partida de conexão confiável: O TCP exige que dois aplicativos criem uma conexão, ambos devem concordar com a nova conexão; Desligamento de conexão graciosa (Graceful Connection Shutdown): Um programa aplicativo pode abrir uma conexão, enviar quantias arbitrárias de dados e então requisitar o fechamento da conexão. O TCP garante a entrega confiável de todos os dados antes de fechar a conexão. O TCP estabelece uma conexão entre o processo na origem e o processo no host de destino antes de enviar os segmentos dos dados reais. Uma vez que a conexão esteja estabelecida, os dados podem ser transferidos em ambas as direções entre dois hosts (full duplex); Para que vários processos simultaneamente usem os serviços do TCP, é usado o conceito de porta, onde cada processo de aplicação, em um dado momento, é identificado por uma porta diferente. Cabeçalho (Header) TCP O TCP utiliza um único formato para todas as mensagens e emprega o termo segmento para se referir a uma mensagem. Onde, Porta Origem e Porta Destino identificam o processo de aplicação que está enviando dados e o processo de aplicação que irá receber os dados. Número de sequência identifica os bytes enviados. Na prática ele é a identificação do primeiro byte de dados contido no segmento enviado. Os demais são sequenciados a partir deste byte. Acknowledgement identifica os bytes que foram recebidos e tratados sem erro pelo destino, bem como a seqüência do próximo byte esperado. Tamanho é representa o tamanho total do frame TCP. Reservado é um campo ainda não utilizado. FLAGS identifica as flags (syn, fin, psh, rst, ack, urg). Window identifica o tamanho da janela para o controle de fluxo. Checksum destina-se a verificação de erros de transmissão. É calculado usando o pseudo header, o header TCP e também a área de dados. Urgent Poninter é um ponteiro para dados urgentes, contidos na área de dados. Controle de Conexão TCP O protocolo TCP utiliza três fases para a conexão entre dois pontos: Estabelecimento da Conexão Transmissão de Dados Encerramento da Conexão Para garantir que as conexões sejam estabelecidas ou encerradas de maneira confiável, o TCP utiliza um mecanismo chamado de tree-way-hadshake, para assegurar que o TCP não abrirá ou fechará uma conexão até que ambos os lados tenham interagido. São utilizados os seguintes Flags: SYN – solicitação de conexão FIN – Finalização da Conexão RST – Reset da Conexão ACK – Reconhecimento de recebimento Você sabia? Quando um usuário inicia uma sessão FTP, o lado cliente do FTP primeiramente inicia uma conexão TCP de controle com o lado servidor uma porta 21 e envia por esta conexão de controle a identificação e a senha do usuário, além de comandos para mudar o diretório. Quando o servidor recebe pela conexão de controle um comando para uma transferência de arquivo, abre uma conexão TCP de dados através da porta 20 a cada solicitação de transferência de arquivo. UDP O protocolo UDP, padronizado pela RFC 768, é bastante simples, é orientado a datagrama, não orientado à conexão, não executa controle de fluxo, controle de erro e sequenciamento. Não tem reconhecimento dos datagramas (ACK/NACK) e devido a sua simplicidade é considerado não confiável pois não assegura que as mensagens transmitidas cheguem ao destino e caso cheguem, poderão chegar fora de ordem. A aplicação que utiliza o UDP deve tratar a falta de confiabilidade. Foi desenvolvido para aplicações que não geram volume muito alto de tráfego na Internet. Cabeçalho (Header) UDP Onde, Porta Origem e Porta Destino identificam o processo de aplicação que está enviando dados e o processo de aplicação que irá receber os dados. Tamanho representa o tamanho total do frame UDP. Checksum é calculado usando o header UDP e também a área de dados, e destina-se a verificação de erros de transmissão. Lista De Comandos: HELO (HELLO) (Obrigatório) Identifica o Emissor da mensagem para o Receptor. MAIL (Obrigatório) Este comando inicializa uma transação de mail na qual uma mensagem é enviada a uma ou mais caixa de mensagens (mailbox). RCPT (ReCiPienT)(Obrigatório) Este comando identifica o destinatário da mensagem; múltiplos destinatários são definidos por múltiplos usos desse comando. DATA (Obrigatório) Inicializa a transmissão da mensagem, após seu uso é transmitido o conteúdo da mensagem, que pode conter qualquer um dos 128 caracteres ASCII. O seu término é especificado por uma sequência "<CRLF>.<CRLF>". QUIT (Obrigatório) Este comando determina que o Receptor-SMTP envie um OK e então feche o canal de comunicação com o Emissor-SMTP. Alguns Comandos FTP Binary Ou simplesmente bin. Estabelece como binário o tipo de representação dos arquivos a serem manipulados. É indica quando for utilizado arquivos de imagem, documentos formatados, executáveis e arquivos compactados. cd diretório_remoto Muda o diretório de trabalho na máquina remota. lcd [diretório] Muda o diretório de trabalho na máquina local. get arq_remoto [arq_local] Recupera o arquivo_remoto e o armazena na máquina local. put arq_local [arq_remoto] Armazena um arquivo local na máquina remota. help [comando] Ou apenas ?, escreve uma mensagem explicativa sobre o significado do comando. ls [dir_remoto] [arq_local] Mostra o conteúdo de um diretório da máquina remota. dir [ dir_remoto] [arq_Loca[] Lista o conteúdo do diretório da máquina remota, colocando o resultado na máquina local. pwd Retorna o nome do diretório atual na máquina remota. quit Termina uma sessão. Processamento do Checksum Na origem, as informações necessárias são organizadas em blocos de 16 bits para o cálculo do checksum; O checksum oferece uma detecção de erros. Este campo comtém o complemento 1 da soma de todas as palavras de 16 bits do segmento. O complemento 1 é obtido convertendo todos os 0s para 1s e convertendo todos os 1s para 0s. Por exemplo: se a soma de todas as palavras de 16 bits fosse 1100101011001010, a soma de verificação seria 0011010100110101. Na extremidade receptora, todas as palavras de 16 bits serão adicionadas juntas, incluindo a soma de verificação; Se não houver erros, então a soma na extremidade receptora será 111111111111111. Entretanto se um dos bits for 0, ocorrerá uma indicação de erro. Socket A associação entre 2 processos cooperantes (cliente/servidor) é identificada por um par de sockets (socket1, socket2), uma vez estabelecida uma conexão, cada socket corresponde a um ponto final dessa conexão. Um socket identifica univocamente um usuário TCP ou UDP, permitindo a associação entre processos de aplicação. O identificador da porta é concatenado ao endereço IP, onde a entidade TCP ou UDP está rodando, definindo um socket. Esta associação entre 2 processos de aplicação é definida como uma quíntupla: MIB Abaixo da sub-árvore MIB II estão os objetos usados para obter informações específicas dos dispositivos da rede. Esses objetos estão divididos em 10 grupos, que estão presentes na tabela abaixo. A planificação do nó da MIB II fica: Grupo System (1.3.6.1.2.1.1) sysDescr (1.3.6.1.2.1.1.1): Descrição textual da unidade. Pode incluir o nome e a versão do hardware, sistema operacional e o programa de rede. sysUpTime (1.3.6.1.2.1.1.3): Tempo decorrido (em milhares de segundos) desde a última reinicialização do gerenciamento do sistema na rede. sysContact (1.3.6.1.2.1.1.4): Texto de identificação do gerente da máquina gerenciada e como contatá-lo. Grupo Interfaces (1.3.6.1.2.1.2) ifNumber (1.3.6.1.2.1 .2.1): Número de interfaces de rede (não importando seu atual estado) presentes neste sistema. ifOperStatus (1.3.6.1.2.1.2.2.1.8): Estado atual da interface. iflnOctets (1.3.6.1.2.1.2.2.1.10): Número total de octetos recebidos pela interface. Grupo IP (1.3.6.1.2.1.4) ipForwarding (1.3.6.1.2.1.4.1): Indica se esta entidade é um gateway. iplnReceives (1.3.6.1.2.1.4.3): Número total de datagramas recebidos pelas interfaces, incluindo os recebidos com erro. iplnHdrErrors (1.3.6.1.2.1.4.4): Número de datagramas que foram recebidos e descartados devido a erros no cabeçalho IR. Grupo ICMP (1.3.6.1.2.1.5) icmplnMsgs (1.3.6.1.2.1.5.1): Número total de mensagens ICMP recebidas por esta entidade Incluindo aquelas com erros. icmpOutMsgs (1.3.6.1.2.1.5.14): Número total de mensagens ICMP enviadas por esta entidade Incluindo aquelas com erros. Grupo TCP (1.3.6.1.2.1.6) tcpMaxConn(1.3.6.2.1.6.4): Número máximo de conexões TCP que esta entidade pode suportar. tcpCurrentEstab (1.3.6.2.1.6.9): Número de conexões TCP que estão como estabelecidas ou a espera de fechamento. tcpRetransSegs (1.3.6.2.1.6.12): Número total de segmentos retransmitidos. Grupo UDP (1.3.6.1.2.1.7) udplnDatagrams (1.3.6.1.2.1.7.1): Número total de datagramas UDP entregues aos usuários UDP. Qual é o protocolo padrão da pilha TCP/IP utilizado para administrar uma rede? SNMP Qual é o protocolo padronizado pela RFC 792, sendo o protocolo que o protocolo IP utiliza para enviar mensagens de erro e mensagens informativas: ICMP Qual é o protocolo da camada de aplicação da pilha TCP/IP que permite que um usuário em determinado site estabeleça uma conexão TCP com um servidor login situado em outro site remoto? TELNET Aula 6: Visão Geral das tecnologias de camada de enlace Introdução Na aula anterior, estudamos o funcionamento do protocolo TCP/IP. Nesta aula, iremos estudar a camada de enlace e seus serviços. Segundo Kurose, à medida que descemos a pilha de protocolos, da camada de rede até a camada de enlace, é natural que imaginemos como os pacotes são enviados pelos enlaces individuais dentro de um caminho de comunicação fim a fim. Como os datagramas da camada de rede são encapsulados nos quadros da camada de enlace para transmissão em um único enlace? Portanto, nesta aula, estudaremos quais serviços e protocolos atuam na camada de enlace, bem como aprenderemos a diferenciação de cada um deles com base em suas características. Onde A Camada De Enlace É Implementada? A camada de enlace é implementada em um adaptador de rede, que é também conhecido como controlador de interface de rede (NIC). No núcleo do adaptador de rede, está o controlador da camada de enlace, normalmente um único chip de sistema, que implementa vários serviços da camada de enlace (enquadramento, acesso ao enlace, controle de fluxo etc). Podemos concluir que muito da funcionalidade da camada de enlace é implementada em hardware. Endereçamento Na Camada De Enlace Na camada de enlace, não é o nó (roteadores e computadores) que possuem um endereço de camada de enlace e sim o adaptador do nó. Segundo Kurose, um endereço da camada de enlace é também denominado um endereço de LAN, um endereço físico, ou um endereço MAC (media access control – controle de acesso ao meio) O endereço MAC tem 6 bytes de comprimento, expressos em notação hexadecimal, onde cada byte é expresso como um par de números hexadecimais. Você sabia? Uma propriedade dos endereços MAC é que não existem dois adaptadores com o mesmo endereço? Isto ocorre devido ao IEEE gerenciar o espaço físico de endereços MAC. Quando uma empresa quer fabricar adaptadores, compra, por uma taxa nominal¸ uma parcela do espaço de endereços que consiste em 224 endereços. O IEEE aloca a parcela de 224 endereços fixando os primeiros 24 bits de um endereço MAC e permitindo que a empresa crie combinações exclusivas com os últimos 24 bits para cada adaptador. Serviços Fornecidos Um protocolo da camada de enlace é usado para transportar um datagrama por um enlace individual. Ele define o formato dos pacotes trocados entre os nós nas extremidades do enlace, bem como as ações realizadas por esses nós ao enviar e receber pacotes. A unidade de dados trocada pelo protocolo de camada de enlace é denominada quadro e cada quadro encapsula um datagrama da camada de rede. Possíveis serviços que podem ser oferecidos: Enquadramento de dados Quase todos os protocolos de camada de enlace encapsulam cada datagrama de camada de rede dentro de um quadro de camada de enlace, antes de transmiti-lo pelo enlace. Acesso ao enlace Um protocolo de acesso ao meio (medium access control protocol – MAC) especifica as regras, segundo as quais um quadro é transmitido pelo enlace. Entrega confiável Quando um protocolo de camada de enlace fornece serviço confiável de entrega, ele garante que vai transportar cada datagrama da camada de rede pelo enlace sem erro. Controle de fluxo Semelhante a camada de transporte, um protocolo de camada de enlace pode fornecer controle de fluxo, para evitar que o nó remetente de um lado de um enlace congestione o nó receptor do outro lado do enlace. Detecção de erros Mecanismo para detectar a presença de erros de bits, que podem ser originados pela atenuação do sinal ou ruído eletromagnético. Esse mecanismo é implementado através do envio de bits de detecção de erros no quadro e a realização de uma verificação de erros no receptor. Normalmente é implementada em hardware. Correção de erros Semelhante à detecção de erros, porém, além de detectar erros no quadro também determina exatamente em que lugar do quadro os erros ocorreram corrigindo-os. Alguns protocolos fornecem a correção de erros apenas para o cabeçalho do pacote e não para o pacote inteiro. Half-duplex e full-duplex Na transmissão full-duples, os nós e ambas as extremidades de um enlace podem transmitir pacotes ao mesmo tempo. Com a transmissão half-duplex um nó não pode transmitir e receber pacotes ao mesmo tempo. Interferência Eletromagnética A interferência eletromagnética (EMI) é um dos maiores causadores de falhas em redes de computadores, principalmente quando são utilizadas tubulações e canaletas inadequadas para o transporte da infra-estrutura de cabeamento. As interferências eletromagnéticas podem ser originadas internamente e/ou externamente ao sistema de comunicação, mas sua causa sempre se origina nas perturbações eletromagnéticas. Cabe aqui salientar a diferença entre os termos "perturbações eletromagnéticas" e "interferências eletromagnéticas", comumente utilizadas na literatura técnica. O primeiro designa a causa e o segundo o efeito que é observado nos sistemas de comunicação. Um exemplo bem prático está em uma instalação de cabeamento estruturado utilizando cabos não blindados, onde os mesmos estão sujeitos a todo tipo de perturbações eletromagnéticas internas e/ou externas. As perturbações com origem interna são geradas dentro do ambiente por onde passam os cabos de dados e de voz digital (cabeamento lógico) e outros tipos de cabos como, por exemplo, de energia elétrica. Já as perturbações de origem externa são campos eletromagnéticos vindos de fora da rede de dutos ou canaletas e que causam perturbações diretamente sobre os cabos lógicos, como sinais de TV, ondas de rádio, motores elétricos, etc. Os cabos lógicos instalados em uma canaleta ficam sujeitos a fontes geradoras de perturbações quando são instalados paralelamente com cabos de energia, compartilhando a mesma infra-estrutura, tendo como efeito interferências eletromagnéticas indesejáveis como o crosstalk (diafonia). As perturbações quer sejam provenientes de ondas eletromagnéticas externas ou de outros cabos próximos que transmitem outras formas de energia ou sinal dentro de uma mesma tubulação ou canaleta, devem ter um tratamento especial durante a etapa de instalação do sistema de cabeamento, objetivando-se adotar medidas para atenuar ou mesmo eliminar seus efeitos. Atualmente, o mercado de equipamentos e acessórios para instalação de redes de computadores dispõe basicamente de canaletas e dutos fabricados com os seguintes materiais: Plástico – excelente isolante elétrico, mas não oferece proteção contra campos eletromagnéticos; Alumínio – não oferece proteção elétrica (é um bom condutor de eletricidade), porém oferece boa blindagem eletromagnética; Aço (zincado ou pintado) – Não é bom condutor de eletricidade, porém não oferece proteção elétrica, mas proporciona boa blindagem eletromagnética. Dentre os tipos apresentados, os acessórios fabricados com alumínio são os que apresentam uma melhor blindagem eletromagnética interna e externa. Vários testes realizados em sistemas estruturados compartilhando a infraestrutura com os cabos de energia demonstraram que a performance da rede lógica sofre uma redução sensível, principalmente quando utiliza canaletas e dutos de plástico. Segundo Faraday, um campo magnético variável pode criar uma corrente elétrica que por sua vez gera um campo eletromagnético contrário ao que lhe deu origem. Esse efeito é o responsável pela atenuação das interferências quando são utilizados canaletas ou dutos de alumínio. Além desse fato, as canaletas de alumínio são praticamente imunes às correntes de Foucaut devido a sua condutibilidade elétrica. No caso das canaletas de plástico, estas não causam nenhuma atenuação, pois o plástico não interfere nos campos eletromagnéticos. Compatibilidade Eletromagnética (EMC) O ambiente eletromagnético é o resultado do funcionamento de diversos aparelhos, equipamentos ou sistemas, adicionados ao ruído ambiente no qual estão inseridos. A Compatibilidade Eletromagnética é a capacidade de um sistema, equipamento ou dispositivo elétrico ou eletrônico funcionar no seu próprio ambiente eletromagnético com uma margem de segurança e com os níveis ou desempenhos projetados, sem sofrer ou causar degradações inaceitáveis causando, como resultado, interferências eletromagnéticas (EMI) sobre outros dispositivos. Assim, a interferência eletromagnética é um processo pelo qual a energia eletromagnética é transmitida através de caminhos Irradiados e/ou conduzidos, devido ao efeito da incompatibilidade do meio. Essa falta de compatibilidade acontece, por exemplo, quando os dados transmitidos través de uma rede de computadores são afetados pelo ruído induzido por motores elétricos ou outros equipamentos pela proximidade destes ou entre o cabeamento elétrico e o lógico. Norma ANSI/EIA/TIA-569-A A norma ANSI/EIA/TIA-569-A, que tem como objetivo padronizar projetos e práticas de instalação de dutos e espaços para edifícios comerciais, bem como os equipamentos que serão instalados, permite o compartilhamento entre a rede lógica e a rede elétrica. Segundo essa norma, se a eletricidade é um dos serviços que compartilham o mesmo duto ou canaleta com a rede de dados, os mesmos deverão ser particionados, observando-se as seguintes situações: A tensão de alimentação deve ser inferior a 480 v; As canaletas devem oferecer uma divisão física para a rede lógica e elétrica; A corrente nominal do cabeamento elétrico não deve ser superior a 20A. Ainda de acordo com a norma, par que sejam evitados os efeitos da interferência eletromagnética devem ser mantidas distâncias mínimas entre os trechos por onde haverá a passagem dos cabos da rede lógica e de energia, conforme a tabela seguinte: Fonte de interferência eletromagnética Distância mínima recomendada Motores ou transformadores elétricos 1,20m Conduítes e cabos elétricos 0,30m Lâmpadas fluorescentes 0,12m Conclusão Redes de computadores são propensas a problemas devido a sua susceptibilidade, ou seja, a falta de proteção para operar sem degradação na presença de um distúrbio eletromagnético. Por esse motivo recomenda-se observar os critérios de compatibilidade eletromagnética para a alocação dos espaços de ambas as redes (lógica e elétrica), principalmente nos percursos verticais, onde a faixa de valores de frequência de operação dos diversos sistemas de comunicação é bastante diversificada. Dessa forma, espera-se obter através de um projeto e instalação adequados, uma rede com imunidade suficiente para operar sem degradação na presença de distúrbios eletromagnéticos. É oportuno lembrar ainda que o custo dos materiais de infraestrutura de cabeamento em uma rede de computadores pode representar de 2% a 5% do custo de investimento da rede, mas também pode representar 75% dos problemas que surgirem durante sua vida útil, algo em torno dos 15 anos. Assim, a escolha de material de qualidade e um projeto bem feito são quesitos importantes na execução de um sistema de cabeamento. Protocolos Da Camada De Enlace Para uma compreensão mais abrangente dos protocolos da camada de enlace, os seguintes conceitos serão discutidos: Pacotes unicast Apesar do termo ser menos conhecido, é o tipo mais comum. É o método de comunicação ponto a ponto, ou seja, uma origem para um destino. A transmissão unicast ocorre quando A envia a informação apenas para B. Neste tipo de comunicação, apenas B recebe a informação. Por exemplo: Quando você acessa uma página web, recebe um e-mail ou baixa um arquivo, a comunicação entre o seu PC e o servidor em questão está utilizando pacotes unicast. Multicast Método de comunicação que suporta difusão para um conjunto definido de hosts. Muito semelhando ao conceito de broadcasting, porém mais eficiente, pois permite que um único pacote seja recebido por um grupo específico de estações sem atrapalhar os demais. Broadcast Método de comunicação que suporta difusão para um conjunto de hosts. Este termo foi originalmente aplicado a transmissões de rádio e televisão, pois, as transmissões estão disponíveis a um público grande. Como funciona? Quando um aplicativo faz broadcast de dados, ele torna uma cópia dos dados disponível a todos os outros computadores da rede; ou quando um switch recebe um pacote com destino para esse endereço, ele envia esse pacote para todas as portas desse segmento. É recomendável que o uso do broadcast seja limitado, para evitar congestionar a rede com tráfego inútil. Para tornar o uso do broadcasting mais eficiente, a maioria das tecnologias de LAN estende o esquema de endereçamento. Além de designar um endereço para cada computador, os projetistas de rede definem um endereço especial reservado, conhecido como endereço de broadcasting. Em uma rede Ethernet, se usa-se o endereço MAC ff:ff:ff:ff:ff:ff para indicar que o pacote é de broadcast. Domínio de colisão e domínio de broadcast Este termo refere-se a um único sistema Ethernet full duplex, cujos elementos (cabos, repetidores, interfaces de estação e outras partes do hardware) fazem parte do mesmo domínio de temporização de sinal. Em um domínio de colisão único, se dois ou mais dispositivos transmitem ao mesmo tempo, ocorre uma colisão. Um domínio de colisão pode compreender vários segmentos, desde que sejam vinculados com repetidores. As pontes e switches segmentam os domínios de colisão em partes menores, melhorando o desempenho da rede. Segmentação de rede Segundo Comer, uma limitação de distância em LANs surge porque o sinal elétrico se torna mais fraco ao viajar ao longo de um fio. Para superar tal limitação, algumas tecnologias de LAN permitem que dois cabos sejam juntados através de um dispositivos conhecido como repetidor. Dispositivo analógico que continuamente monitora sinais elétricos em cada cabo. Quando ele percebe um sinal em um cabo, o repetidor transmite uma cópia ampliada no outro cabo. Quando ele percebe um sinal em um cabo, o repetidor transmite uma cópia ampliada no outro cabo. No desenho acima, um repetidor conecta dois cabos de Ethernet conhecidos como segmento. Os repetidores não entendem o formato de quadro, nem possuem endereços físicos, apenas enviam cópais de sinais elétricos de um segmento para outro sem esperar por um quadro completo. Além de propagar cópias de transmissão válidas, de um segmento para outro, um repetidor propaga uma cópia de outros sinais elétricos. Caso ocorra uma colisão ou uma interferência elétrica em um segmento, os repetidores fazem com que o problema seja propagado em todos os outros segmentos. Diferentemente dos repetidores, e conforme já estudado na aula3, uma bridge manipula quadros completos. Ela “escuta” o tráfego em cada segmento, usando o modo promíscuo. Quando recebe um quadro de um segmento, verifica se o quadro chegou intacto e então encaminha uma cópia do quadro para o outro segmento, se necessário. Com a utilização de uma bridge dois segmentos de LAN se comportam como se fosse uma LAN única. Tipo de configuração de recepção na qual todos os pacotes que trafegam pelo segmento de rede ao qual o receptor está conectado são recebidos pelo mesmo, não recebendo apenas os pacotes endereçados ao próprio. (fonte: Wikipedia) Endereçamento na Camada de Enlace É um agrupamento de vários domínios de colisão. Os dispositivos da camada 02 (enlace) encaminham para todas as interfaces um pacote de broadcast. Desta forma ,vários segmentos interligados através de dispositivos da camada de enlace fazem parte do mesmo domínio de broadcast. Para segmentar um domínio de broadcast, é necessário um dispositivo da camada 03 (rede), ou seja, um roteador. Como os protocolos da camada de enlace têm uma atuação muito ampla, muitas vezes encontra-se o termo “tecnologia“ para se referenciar a tais protocolos. Existe uma gama relativamente grande de tecnologias (protocolos) e nesta aula, as seguintes tecnologias serão abordadas: Token Ring Também conhecido como o padrão IEE802.5. Segundo Kurose, em uma rede local com tecnologia token ring, os N nós da LAN estão conectados em um anel por enlaces diretos. A topologia do anel define a ordem de passagem de permissão. Este tipo de rede utilizam um quadro ou “token” (um pequeno pacote com informações específicas) para identificar um determinado computador que temporariamente estará controlando o meio de transmissão, podendo, neste momento transmitir seus dados, enquanto os demais computadores aguardam a liberação do “token”. Quando um nó obtém a permissão e envia um quadro ou “token”, este se propaga ao redor do anel inteiro, criando desta maneira, um canal virtual de transmissão broadcast. À medida que o quadro se propaga, o nó destino lê esse quadro no meio da transmissão da camada de enlace. O nó que envia o quadro tem a responsabilidade de remover o quadro ou “token” do anel. Token Bus Em uma rede local, que utiliza o padrão token bus ou IEEE 802.4, o token bus é um cabo em forma de árvore ou linear, no qual todas as estações estão fisicamente conectadas. Logicamente as estações são organizadas em anel, com cada estação conehecendo o endereço da estação da esquerda e da direita. Quando o anel lógico é inicializado, a estação de maior número pode transmitir o primeiro quadro. Depois disso, ela passa a permissão para o seu vizinho imediato, enviando a ele um quadro de controle especial chamado token. O token se propaga em torno do anel lógico e apenas o protador do token tem a permissão para transmitir quadros. [Vom[????? apenas uma estação por vez detém o token, não há colisões. Você sabia? O padrão ANSI/IEEE 802.4 é o padrão para redes em barra, com sinalização em banda larga, utilizando a passagem de permissão como método de acesso. Quatro tipos de meios em barra foram especificados para este padrão e diferem, particularmente, pelas formas de sinalização para cada entidade do nível físico. DQDB Uma rede DQDB (Barramento Duplo de Fila Distribuída) é uma rede multiacesso distribuída que suporta comunicações bidirecionais, usando um barramento duplo e enfileiramento distribuído. Provê acesso para redes locais ou metropolitanas. Consiste em duas barras unidirecionais, interconectando , ponto a ponto, vários nós. As barras, denominadas A e B, conforme a figura abaixo, suportam a comunicação em direções opostas, oferecendo um caminho full-duplex entre qualquer par de estações. Para transmissão, a barra DQDB é segmentada no tempo, em slots de tamanhos fixos. Cada transmissão deve ser feita dentro de um slot. ATENÇÃO Padrão IEEE 802.6 foi criado devido à necessidade da definição de um padrão para transporte de dados a alta velocidade dentro de uma região metropolitana (MAN) com o objetivo de prover serviços integrados, tais como: texto, voz e vídeo, em uma grande área geográfica. 100VGAnyLan Também conhecida como IEEE 802.12. Neste tipo de tecnologia, cada estação é conectada a um hub por uma ligação ponto a ponto, segundo a topologia estrela. Neste caso, o hub não é um simples centro de fiação com repetidores, mas um dispositivo capaz de executar comutação rápida de circuito. O hub é um controlador central inteligente que gerencia o acesso a rede, através de uma rápida varredura "round robin" de suas requisição de portas de rede, checando requisições de serviços de seus nós. O hub recebe um pacote de dados e o direciona somente para a porta correspondente ao nó destinatário, provendo assim a segurança dos dados. Cada hub pode ser configurado para operar no modo normal ou no modo monitor. Portas configuradas para operar no modo normal recebem apenas os pacotes endereçados ao nó correspondente. Portas configuradas para operar no modo monitor recebem todos os pacotes enviados ao hub. Um nó pode ser um computador, estação, ou outro dispositivo de rede 100VG-AnyLAN tais como bridges, roteadores, switch, ou hub. Hosts conectados como nós são referenciados como de nível mais baixo, como nível 2 ou nível 3. FDDI A tecnologia FDDI (Interface de Dados Distribuído por Fibra) utiliza o conceito de rede token-ring baseado em fibra óptica. Consistem de uma rede em duplo anel, usando fibra óptica como meio físico de transmissão de dados a uma taxa de 100 Mbps. Segundo Kurose, a rede FDDI foi projetada para LANs de alcance geográfico maior incluindo as redes de área metropolitana (MAN). Para LANs de grande alcance geográfico (que se espalham por muitos quilômetros), é ineficiente permitir que um quadro se propague de volta ao nó remetente, tão logo tenha passado do nó destino. A rede FDDI faz com que o nó destino remova o quadro do círculo. ATM O ATM (Mode de Transferência Assíncrono) é uma tecnologia baseada na transmissão de pequenas unidades de informação de tamanho fixo e formato padronizado, denominadas “células”. As células são transmitidas através de conexões com circuitos virtuais, sendo seu encaminhamento baseado em informação de um cabeçalho, contido em cada uma delas. É capaz de suportar diferentes serviços, para satisfazer aos requisitos exigidos pelos diferentes tipos de tráfego em as altas velocidades de transmissão como, por exemplo: voz, vídeo e dados. Família Ethernet Devido à importância desta tecnologia nas redes atuais (a maioria das redes de computadores locais usam esse padrão), ela se tornou uma tecnologia “de facto”. Desde a sua criação, vários padrões ethernet foram sendo desenvolvidos de forma a acompanhar as necessidades do mercado de transmissão de dados cada vez maiores. Hoje, é uma prática comum assistir a um vídeo em seu computador e essa prática só é possível graças a, entre outras coisas, evolução deste padrão de camada de enlace: Ethernet Fast-Ethernet Gigabit Ethernet 10 Gigabit Ethernet 100 Gigabit Ethernet Ethernet Definido pelo padrão IEEE 802.3 e, originalmente, com capacidade de 10Mbps; e podendo utilizar diversos tipos de cabeamento. É uma tecnologia de rede extensamente utilizada que emprega topologia de barramento. O padrão Ethernet especifica todos os detalhes, inclusive o formato dos quadros que os computadores enviam através do barramento, a voltagem a ser utilizada e o método usado para modular o sinal. Uma rede local (LAN) Ethernet é composta de hardware e software ,trabalhando juntos, para oferecer dados digitais entre computadores. Para conseguir essa tarefa, quatro elementos básicos são combinados para a criação de um sistema Ethernet: O quadro (frame) O quadro (frame), que é um conjunto padronizado de bits usados para transportar dados pelo sistema; O protocol media access control O protocolo Media Access Control, que consiste em um conjunto de regras embutidas em cada interface Ethernet para permitir que vários computadores acessem o canal Ethernet, compartilhado de um modo ordenado; Os componentes de sinalização Os componentes de sinalização, que consistem em dispositivos eletrônicos padronizados, que enviam e recebem sinais por um canal Ethernet; O meio físico O Meio físico, que consiste nos cabos e outro hardware usado para transportar os sinais ethernet digitais entre os computadores ligados à rede. Como Uma Rede Ethernet Funciona? A rede Ethernet utiliza uma topologia de barramento, onde múltiplos computadores devem compartilhar o acesso a um único meio. Um remetente transmite um sinal, que se propaga do remetente em direção às duas extremidades do cabo. Neste momento, o computador remetente tem uso exclusivo do cabo inteiro, durante a transmissão de um dado quadro, e os outros computadores devem esperar. Como funciona a Ethernet por Nick Pidgeon - traduzido por HowStuffWorks Brasil Introdução O acesso eficiente e confiável à informação é um aspecto importante do mundo dos negócios. Arquivos e montanhas de papel foram substituídos por computadores, que armazenam e gerenciam, eletronicamente, a informação. Um trabalho pode ser realizado por duas ou mais pessoas que moram em lugares completamente diferentes. Centenas de trabalhadores de uma empresa podem revisar simultaneamente uma informação disponível online. As tecnologias de rede dos computadores são a cola que une esses elementos. A Internet pública permite que os vendedores de produtos e serviços disponibilizem informação para seus parceiros e consumidores. A rede global de computadores conhecida como Internet permite que as pessoas comprem livros, roupas e até carros. Também é possível colocar esses itens em um leilão, quando não são mais desejados. Neste artigo, vamos examinar detalhadamente as redes e, em particular, o padrão de rede Ethernet. Você vai entender como todos esses computadores se conectam. Por que rede? Uma rede permite a troca de informações (envio e recebimento) entre computadores. Talvez nós nem tenhamos ideia da quantidade de vezes que acessamos informações em redes de computador. A Internet certamente é o maior exemplo de rede de computadores, com milhões de máquinas conectadas ao redor do mundo, mas as pequenas redes desempenham um papel importante na busca diária de informações. Muitas bibliotecas públicas substituíram os cartões em papel por terminais de computador. Assim, é mais fácil e rápido procurar os livros. Os aeroportos têm inúmeras telas que exibem informações sobre voos. Muitas lojas têm computadores especializados que controlam transações de pontos-de-venda. Em cada um desses casos, as redes oferecem diferentes dispositivos em diversas localidades que acessam uma informação compartilhada. Antes de conhecer os detalhes de um padrão de rede como a Ethernet precisamos entender alguns termos básicos e classificações que descrevem e diferenciam as diferentes tecnologias de rede. Vamos começar! Rede local x rede de longa distância As tecnologias de rede podem ser divididas em dois grupos básicos: Rede local, na qual as tecnologias LAN (Local Area Network) conectam muitos dispositivos que estão relativamente próximos, geralmente no mesmo prédio. Os terminais de uma livraria que exibem informações sobre um livro estão conectados a uma rede local. Rede de longa distância, na qual as tecnologias WAN (Wide Area Network) conectam um número menor de dispositivos que podem estar separados por muitos quilômetros. Por exemplo, se duas livrarias situadas em bairros diferentes quiserem compartilhar a informação de seu catálogo de livros, elas devem usar uma tecnologia de rede de longa distância. Pode-se usar uma linha dedicada, alugada da companhia telefônica. Em comparação às WANs, as LANs são mais rápidas e confiáveis. A tecnologia, porém, se desenvolve rapidamente, e as diferenças entre WAN e LAN estão cada vez menores. Os cabos de fibra ótica permitem a conexão de dispositivos LAN separados por quilômetros de distância. Esses cabos também melhoram a velocidade e a confiabilidade das redes WAN. A Ethernet Em 1973, os pesquisadores Bob Metcalfe e David Boggs, do Xerox Corporation's Palo Alto Research Center (mais conhecido como PARC), e criaram e testaram a primeira rede Ethernet. Metcalfe tentava conectar o computador "Alto" da Xerox a uma impressora e acabou desenvolvendo um método físico de cabeamento que conectava os dispositivos na Ethernet. Ele também criou os padrões de comunicação em cabos. Desde então, a Ethernet se tornou a tecnologia de redes mais popular do mundo. Muitos dos problemas da Ethernet são parecidos com os problemas das outras tecnologias de rede. Compreender o funcionamento da Ethernet dará a você embasamento para entender as redes em geral. Com o amadurecimento das redes, o padrão Ethernet cresceu para agregar novas tecnologias. Mas os mecanismos de operação de todas as redes Ethernet atuais se baseiam no sistema original de Metcalfe. O conceito original de Ethernet é: comunicação compartilhada por um único cabo para todos os dispositivos da rede. Uma vez que o dispositivo está conectado a esse cabo, ele tem a capacidade de se comunicar com qualquer outro dispositivo. Isso permite que a rede se expanda para acomodar novos dispositivos sem ter de modificar os dispositivos antigos. Informações básicas sobre a Ethernet A Ethernet é uma tecnologia de rede local. Essas redes normalmente operam num mesmo prédio e conectam dispositivos próximos. No início podia haver no máximo algumas centenas de metros de cabos separando dispositivos numa Ethernet, tornando difícil conectar locais muito distantes geograficamente. Avanços recentes da tecnologia conseguiram aumentar essas distâncias, e as redes Ethernet atuais podem cobrir dezenas de quilômetros. Protocolos Na área de redes, o termo protocolo se refere a um conjunto de regras que regem as comunicações. Protocolos são a linguagem dos computadores. Seguindo esse raciocínio, dois dispositivos de uma rede precisam entender o mesmo protocolo para poder se comunicar. Terminologia da Ethernet Regras simples regem a operação básica da Ethernet. Para compreender essas regras, é importante conhecer a terminologia básica da Ethernet. Meio - dispositivos Ethernet se conectam a um meio comum que fornece um caminho para os sinais eletrônicos. Historicamente, esse meio é um cabo coaxial de cobre, mas hoje se utiliza cabeamento de par trançado ou fibra ótica. Segmentos - um único meio compartilhado é um segmento Ethernet. Nó - dispositivo que se conecta ao segmento. Frame - os nós se comunicam por meio de mensagens curtas chamadas frames, que são blocos de informação de tamanho variável. Pense em um frame como se fosse uma frase na linguagem humana. Em português, obedecemos a regras para construir as frases. Sabemos que todas as frases devem possuir um sentido completo. O protocolo Ethernet especifica um conjunto de regras para construir os frames. Existe um comprimento mínimo e máximo para os frames e um conjunto necessário de trechos de informação que devem aparecer no frame. Por exemplo, cada frame deve incluir um endereço de destino e um endereço de envio, que identificam respectivamente o destinatário e o remetente da mensagem. O endereço identifica um nó único, da mesma forma que um nome identifica uma pessoa - dois dispositivos Ethernet nunca têm o mesmo endereço. O meio Ethernet Como um sinal no meio Ethernet alcança todos os nós conectados, o endereço de destino desempenha um papel fundamental para identificar o destinatário do frame. Um aspecto interessante do endereçamento Ethernet é a implementação do endereço broadcast. Um frame com endereço de destino igual ao endereço broadcast (também chamado simplesmente de broadcast) é direcionado para cada nó da rede, e cada nó vai receber e processar esse tipo de frame. CSMA/CD A sigla CSMA/CD significa, em inglês, carrier-sense multiple access with collision detection (acesso múltiplo com detecção de portadora e detecção de colisão) e descreve como o protocolo de Ethernet regula a comunicação entre os nós de uma rede. A expressão pode intimidar, mas se analisarmos os conceitos de seus componentes, separadamente, vamos ver que ele descreve regras muito similares àquelas que as pessoas utilizam em conversações civilizadas. Para ajudar a ilustrar a operação da Ethernet, vamos usar uma analogia: uma conversação à mesa de jantar. Nosso segmento Ethernet é a mesa de jantar, e os nós são as pessoas conversando educadamente. A expressão múltiplo acesso (multiple access) fala sobre o que acabamos de discutir. Quando uma estação de Ethernet transmite, todas as estações no meio ouvem a transmissão. Da mesma maneira que quando uma pessoa fala, todo mundo escuta. Agora vamos imaginar que você esteja à mesa e tenha alguma coisa a dizer. No momento, entretanto, existe uma pessoa falando. Já que essa é uma conversação educada, em vez de imediatamente falar e interromper o outro você espera até que ele termine de falar. Na terminologia da Ethernet, esse processo se chama carrier sense (detecção de portadora). Antes de uma estação começar a transmitir, ela "ouve" o meio para saber se outra estação está transmitindo. Se o meio estiver em silêncio, a estação reconhece que esse é o momento apropriado para transmitir. Detecção de colisão O acesso de múltiplos dispositivos de rede é uma boa maneira de começarmos a explorar as limitações da Ethernet, mas existe outro cenário que ainda temos de analisar. Vamos criar uma analogia da mesa de jantar e imaginar que existe um silêncio momentâneo na conversação. Você e eu temos coisas a falar e ambos sentimos o "peso do silêncio". Para resolver isso, começamos a falar quase ao mesmo tempo. Na terminologia da Ethernet, ocorre uma colisão quando os dois tentam falar ao mesmo tempo. Em nosso caso, podemos resolver a situação de maneira civilizada. Após a percepção de que estávamos falando ao mesmo tempo, um de nós pára de falar para escutar o outro. Os nós da Ethernet também escutam o meio enquanto transmitem, para ter certeza de que são a única estação transmissora naquele momento. Se as estações começam a ouvir sua própria transmissão de forma distorcida ou misturada com a de outra estação sabem que uma colisão aconteceu. Às vezes, um segmento de Ethernet é chamado de domínio de colisão porque duas estações no segmento não podem transmitir ao mesmo tempo sem causar uma colisão. Quando as estações detectam uma colisão, elas interrompem a transmissão, esperam durante um período aleatório e tentam transmitir novamente quando detectam silêncio no meio. A pausa aleatória e a repetição do envio do sinal representam parte importante do protocolo. Se as duas estações colidem quando estão transmitindo, então ambas terão de transmitir novamente. Na próxima oportunidade de transmissão, as estações envolvidas na colisão anterior terão dados prontos para transmitir. Se elas transmitissem novamente na primeira oportunidade, colidiriam de novo. Por isso existe um tempo de espera aleatório. Assim, dificilmente as duas estações vão continuar colidindo por muito tempo. As limitações da Ethernet Um cabo compartilhado é a base para uma rede Ethernet completa, o que discutimos anteriormente. De qualquer forma, há limites práticos para o tamanho de nossa rede Ethernet nesse caso. A primeira preocupação é o comprimento do cabo compartilhado. Os sinais elétricos se propagam muito rapidamente pelo cabo, mas se tornam mais fracos com a distância, e a interferência de aparelhos elétricos (como lâmpadas fluorescentes) pode prejudicar o sinal. Um cabo de rede deve ser curto o suficiente para que os dispositivos em cada ponta recebam o sinal sem interferências e sem atraso. Esse é o limite da distância máxima que separa dois dispositivos (também conhecido como diâmetro da rede) em uma rede Ethernet. Além disso, como em CSMA/CD um dispositivo único só pode transmitir num determinado momento, existem limites práticos para o número de dispositivos que podem coexistir em uma mesma rede. Se você conectar muitos dispositivos a um mesmo segmento compartilhado, a contenção do meio aumenta. Cada dispositivo terá de esperar um longo tempo antes de conseguir transmitir. Os engenheiros desenvolveram uma série de dispositivos de rede que aliviam esses problemas. Muitos desses dispositivos não são específicos para a Ethernet, sendo utilizados em outras tecnologias também. Repetidores O primeiro meio popular de Ethernet foi um cabo coaxial de cobre conhecido como "thicknet." O comprimento máximo desse cabo era de 500 metros. Em grandes prédios ou campus de universidades, um cabo de 500 metros nem sempre era suficiente. Um repetidor resolve esse problema. Os repetidores conectam múltiplos segmentos de Ethernet, ouvindo cada segmento e repetindo o sinal ouvido para todos os outros segmentos conectados. O uso desses aparelhos permite aumentar significativamente o diâmetro de uma rede. Segmentação Em nossa analogia da mesa, havia poucas pessoas à mesa, situação em que ter só uma pessoa falando de cada vez não chega a provocar problemas de comunicação. Mas o que aconteceria se fosse muita gente reunida e só um pudesse falar? Na prática, sabemos que essa analogia gera situações como a que veremos a seguir. Em grandes grupos de pessoas, é normal que aconteçam diferentes conversas simultaneamente. Se, em uma sala lotada somente uma pessoa pudesse falar a qualquer momento, muitas pessoas ficariam frustradas esperando um momento para falar. Para os humanos, o problema se corrigiria automaticamente: O alcance da voz humana é limitado e o ouvido consegue focar em uma conversa específica mesmo que esteja em um ambiente barulhento. Por isso, é comum que existam diversas conversas simultâneas em uma mesma sala. Isso não acontece com os cabos de rede, já que eles conseguem carregar sinais rapidamente e de forma eficiente por longas distâncias. As redes Ethernet enfrentaram problemas de congestionamento ao ficarem maiores. Se há um grande número de estações conectadas a um mesmo segmento e cada uma gera uma quantidade considerável de tráfego, muitas estações tentarão transmitir assim que houver uma oportunidade. Nessas circunstâncias, as colisões se tornariam mais frequentes e poderiam prejudicar outras transmissões, que levariam mais tempo para ser concluídas. Um jeito de reduzir os congestionamentos seria dividir cada segmento em múltiplos segmentos e assim criar múltiplos domínios de colisão. Essa solução cria um problema diferente, já que esses segmentos separados não conseguem trocar informação uns com os outros. Pontes Para aliviar os problemas da segmentação, as redes Ethernet implementaram as pontes. Elas conectam dois ou mais segmentos de rede, e assim aumentam o diâmetro da rede da mesma forma que os repetidores, mas as pontes também ajudam a regular o tráfego. As pontes podem enviar e receber transmissões do mesmo jeito que qualquer outro nó, mas elas não funcionam da mesma maneira que um nó comum. A ponte não gera nenhum tráfego (como os repetidores), apenas ecoa o que ouve das outras estações. (Essa última afirmação não é 100% precisa: as pontes na verdade criam um frame especial Ethernet que permite que elas se comuniquem com outras pontes, mas esse assunto não é analisado neste artigo). Switches são versões modernas das pontes. Eles funcionam de maneira semelhante, mas oferecem um segmento dedicado para cada nó da rede (mais informações sobre os switches a seguir). Roteadores: segmentação lógica As pontes podem reduzir o congestionamento ao permitir múltiplas conversações simultâneas em segmentos diferentes, mas elas também têm seus limites na segmentação do tráfego. Uma característica importante das pontes é que elas encaminham endereços broadcast da Ethernet para todos os segmentos conectados. Isso é necessário, já que os endereços broadcast são endereçados para todos os nós da rede. O problema é que as redes em ponte podem se tornar muito grandes. Quando um grande número de estações transmite em broadcast numa rede em ponte, o congestionamento pode ser imenso. Isso criaria uma situação semelhante a um congestionamento em um segmento simples. Os roteadores são componentes avançados de rede que podem dividir uma rede em duas redes lógicas independentes. Os endereços broadcast da Ethernet cruzam as pontes em busca de cada nó da rede, mas não atravessam os roteadores, porque os roteadores criam uma barreira lógica para a rede. Os roteadores operam com protocolos independentes da tecnologia específica da rede, como Ethernet ou token ring (vamos falar sobre o token ring mais adiante). Isso permite que os roteadores interconectem várias tecnologias de rede (local ou de longa distância) e foi um dos componentes que facilitaram a conexão de vários dispositivos em várias partes do mundo para formar a Internet. Ethernet comutada As redes Ethernet modernas não se parecem em nada com as versões mais antigas. Em redes Ethernet antigas, as estações eram conectadas por longos cabos coaxiais. Nas redes modernas se usa cabeamento de par trançado ou fibra ótica para conectar as estações em um padrão radial. Enquanto as redes antigas transmitiam dados a uma velocidade de 10 megabits por segundo (Mbps), as redes modernas podem operar a 100 ou até 1.000 Mbps. Talvez o maior avanço das redes Ethernet atuais seja o uso da Ethernet comutada. As redes comutadas substituem a mídia compartilhada utilizada pela Ethernet antiga por um segmento dedicado para cada estação. Esses segmentos se conectam a um switch, que funciona de maneira parecida com uma ponte Ethernet, mas pode conectar mais segmentos de estações únicas. Alguns switches podem suportar centenas de segmentos dedicados. Como os únicos dispositivos nos segmentos são o switch e a estação final, os switches recebem todas as transmissões antes de elas chegarem ao nó seguinte. O switch então encaminha o frame para o segmento apropriado, do mesmo jeito que uma ponte o faria. Como cada segmento contém um único nó, o frame só alcança o destinatário desejado. Esse procedimento permite múltiplas conversações numa rede comutada (consulte Como funcionam os switches LAN - rede de comunicação local - para aprender mais sobre a tecnologia de switches). Ethernet full-duplex A Ethernet comutada gerou outro avanço: a Ethernet full-duplex. Full-duplex é uma expressão de comunicação de dados que se refere à capacidade de enviar e receber dados ao mesmo tempo. A Ethernet antiga é half-duplex, ou seja, a informação só pode se mover em uma direção por vez. Numa rede totalmente comutada, os nós só se comunicam com o switch e não diretamente com outro nó. As redes comutadas podem utilizar cabeamento de par trançado ou fibra ótica. Ambos utilizam condutores independentes para enviar e receber dados. Nesse tipo de ambiente, as estações Ethernet podem esquecer o processo de detecção de colisão e transmitir à vontade, já que elas são os únicos dispositivos que podem acessar o meio. Isso permite que as estações finais transmitam para o switch ao mesmo tempo em que o switch transmite para elas. Assim, o ambiente se torna livre de colisões. Ethernet ou 802.3? Você já deve ter ouvido o termo 802.3 usado em lugar de ou em conjunto com o termo Ethernet. "Ethernet" se refere originalmente a uma implementação de rede padronizada pela Digital, Intel e Xerox - por esse motivo, ela também é conhecida como padrão DIX. Em fevereiro de 1980, o Institute of Electrical and Electronics Engineers, ou IEEE (se pronuncia "I três E"), criou um comitê para padronizar as tecnologias de rede. O IEEE batizou esse comitê como grupo de trabalho 802. O nome foi baseado no ano e no mês de formação do grupo. Subcomitês do grupo de trabalho 802 pesquisavam separadamente diferentes aspectos das redes. O IEEE definiu cada subcomitê numerando-o como 802.X, em que X representava um número único para cada subcomitê. O grupo 802.3 padronizou a operação de rede CSMA/CD que tinha função equivalente à Ethernet DIX. Ethernet e 802.3 são levemente diferentes em sua terminologia e formato de dados de seus frames, mas são idênticos na maioria dos aspectos. Hoje, o termo Ethernet se refere genericamente tanto à implementação DIX Ethernet quanto à padronização IEEE 802.3. Tecnologias alternativas de redes: token ring Além da Ethernet, a alternativa mais comum de redes é uma tecnologia desenvolvida pela IBM, chamada token ring. A Ethernet depende de espaços aleatórios entre as transmissões para regular o acesso ao meio, ao passo que o token ring implementa um sistema de acesso ordenado e estrito. Uma rede token ring organiza os nós em um anel lógico, como demonstrado a seguir. Os nós encaminham os frames em uma direção em volta do anel e removem o frame quando ele dá uma volta completa no anel. O anel é iniciado criando um token (ou ficha), que é um tipo especial de frame que dá à estação a permissão para transmitir. O token circula no anel como qualquer outro frame até encontrar uma estação que queira transmitir dados. Essa estação "captura" o token e substitui o frame do token por um frame que carrega dados. Esse frame circula na rede. Quando esse frame de dados retorna à estação transmissora, a estação remove o frame de dados, cria um novo token e encaminha esse token para o próximo nó do anel. Os nós da rede token ring não buscam um sinal que carrega dados ou colisões. A presença do token assegura que a estação pode transmitir dados sem que outra estação a interrompa. As estações só transmitem um único frame de dados antes de passar o token; por isso, cada estação no anel terá uma chance para transmitir dados de maneira estrita e justa. Geralmente, as redes token ring transmitem. O padrão FDDI (Fiber-distributed data interface) é outra tecnologia que utiliza tokens e que opera em um par de anéis de fibra ótica. Cada anel passa um token em direções opostas. As redes FDDI ofereciam velocidades de transmissão de 100 Mbps. Inicialmente, esse tipo de padrão se tornou muito popular para as redes de alta velocidade. Com a criação da Ethernet de 100 Mbps, que é mais barata e mais fácil de se administrar, o padrão FDDI se tornou menos popular. Tecnologia alternativa: modo de transferência assíncrono Uma última tecnologia de rede que deve ser mencionada é o modo de transferência assíncrono (asynchronous transfer mode ou ATM). O ATM fica no limite entre as redes locais e as redes de longa distância. Esse tipo de rede pode conectar muitos dispositivos diferentes com alta confiabilidade e velocidade e cobre longas distâncias. As redes ATM são indicadas não só para dados, mas também para tráfego de voz e vídeo. Esse tipo de rede é bastante versátil e expansível. Essa tecnologia ainda não ganhou a aceitação esperada, mas é uma tecnologia bastante sólida e confiável. A popularidade da Ethernet continua aumentando. Com quase 30 anos de aceitação da indústria, o padrão é bastante conhecido e estudado; por isso, a instalação e a resolução de problemas se tornam mais fáceis. Outras tecnologias avançaram, mas a Ethernet se torna cada vez mais rápida e funcional. A Evolução Do Ethernet Fast-Ethernet Evolução do padrão Ethernet, porém com capacidade de 100Mbps. O sistema de Fast-Ethernet é baseado em sistemas de mídia de par trançado e fibra ótica e oferece canais de rede de alta velocidade para uso em sistemas de backbone. Gigabit Ethernet Evolução do padrão Fast-Ethernet para capacidade de 1000 Mbps. Descreve um sistema que opera a uma velocidade de 1 bilhão de bits por segundo, em mídia de fibra ática e par trancado. Emprega o mesmo protocolo CSMA/CD, empregado nas suas predecessoras Ethernet e, além disso, o formato e tamanho do frame também são o mesmo. 10 Gigabit Ethernet e 100 Gigabit Ethernet Evolução do padrão Gigabit, suportando capacidade de transmissão de 10 e 100 Gbps, respectivamente, O padrão 10 Gigabit Ethernet segue na sua essência o padrão gigabit ethernet, porém, seu modo de transmissão é, única e exclusivamente, full-duplex e o meio físico é a fibra ótica - mutimodo ou monomodo. Em virtude do aumento da distância abrangida pela fibra ótica (40 km), o 10 gigabit ethernet é utilizado em rede metropolitana. São características das Redes Ethernet: Utiliza uma topologia de barramento, onde múltiplos computadores devem compartilhar o acesso a um único meio. A que se refere o termo “domínio de Colisão”? A um único sistema Ethernet cujos elementos fazem parte do mesmo domínio de temporização de sinal. A unidade de dados trocada pelo protocolo de camada de enlace é denominada: Quadro. Aula 7: Endereçamento IP Neste ponto da disciplina Redes de Computadores, importantes conhecimentos, e habilidades para entender e avaliar como uma rede de computadores funciona, foram adquiridos. No entanto, um detalhe, extremamente importante, ainda não foi abordado:, como deve ser feito o endereçamento das máquinas em uma topologia de rede. Em outras palavras, como identificar um “host” dentre tantas redes interconectadas? Para que isso aconteça, podem-se considerar dois métodos: Um número que identifique, ubiquamente, uma máquina; Uma forma de encontrar uma máquina (por meio de seu número), entre as demais interligadas por meio de redes, sejam locais ou globais. Nesta aula, iremos estudar as técnicas usadas para planejar, adequadamente, um endereçamento IP, em uma rede de computadores, deixando para a próxima aula os métodos para encontrar uma máquina na rede. Desta forma, os seguintes tópicos serão estudados: O endereço IPv4 Cada endereço IP tem comprimento de 32 bits (equivalente a 4 bytes) e, portanto, possui uma capacidade endereçável de 2 32 endereços possíveis, ou seja, aproximadamente 4 bilhões de endereços. Este endereço são escrito em notação decimal separada por ponto, na qual cada byte do endereço é escrito em sua forma decimal e separado dos outros bytes por um ponto. Por exemplo, considere o endereço IP: O endereço acima tem quatro números separados por ponto. Cada número decimal representa um octeto que corresponde a um número binário de 8 bits. Por conseguinte, o endereço 192.168.0.1, em notação binária é: Como estamos representando um número binário em cada octeto, consequentemente o valor máximo que poderá ocorrer em um octeto será todos os bits deste octeto ligado, ou seja, o valor 11111111, que representa o número 255. Portanto, o valor máximo possível, para cada um dos quatro números ou octetos em um endereço IP, é 255 e não 999. Classificação dos endereços IPv4 Uma vez que os projetistas do IP escolheram um tamanho para endereços IP e decidiram dividir cada endereço em duas partes, eles tiveram que determinar quantos bits colocar em cada parte. O ID de rede precisa de bits suficiente para permitir que seja atribuído que um número de rede único seja atribuído a cada rede física em uma Inter rede. Já o ID de hots precisa de bits suficientes para permitia que a cada computador acoplado a uma rede seja atribuído um endereço único. Conceito de redes e sub-redes Segundo Tanembaum, todos os hosts de uma rede devem ter o mesmo de rede. Porém, esta propriedade do endereçamento IP poderá causar problemas, à medida que as redes crescem. Como fazer se um empresa começou sua rede com uma rede classe C e posteriormente necessitou ampliá-la, de forma que o número de hots fosse maior que máximo permitido pelo endereçamento? Conseguir um novo IP pode ser uma tarefa não tão trivial, pois, não existem tantos endereços disponíveis como vimos no vídeo no início da nossa aula. VLSM, CIDR e NAT Tanto o VLSM, quanto o CIDR, permitem que uma porção de um endereço IP seja dividida recursivamente em pequenos pedaços. A diferença entre os dois é o fato de que o VLSM faz a divisão de um endereço IP da Internet alocado à uma organização, porém isto não é visível na Internet. Já o CIDR permite a alocação de um bloco de endereços por um registro na Internet através de um ISP (Internet Service Provider). O endereço IPv6 O protocolo Ipv6 tem endereços mais longos, diferentemente do Ipv4 que tem 8 bytes, possui 16 bytes resolvendo o problema de endereçamento. Apresenta a simplificação do cabeçalho para apenas sete campos contra 13 do Ipv4. Esta mudança permite aos roteadores processarem os pacotes com mais rapidez, melhorando o desempenho da rede (throughput e retardo) e diminuindo o tempo de processamento. A autenticidade e privacidade são recursos importantes deste novo IP. Version Versão: é sempre 6 para Ipv6 e 4 para Ipv4. Permitem aos roteadores identificar qual versão do protocolo está sendo processada. Traffic Class Classe de tráfego: é usado para fazer distinção entre pacotes com diferentes requisitos de entrega de tempo real. Flow label Identificador de fluxo: campo ainda em fase de experiência. Payload Tamanho dos dados: determina o número de bytes que seguem o cabeçalho de 40 bytes. Next Header Próximo cabeçalho: o cabeçalho foi simplificado, pois permite a possibilidade de existir outros cabeçalhos de extensão (opcionais), informando quais dos seis cabeçalhos de extensão seguem esse cabeçalho. Caso o cabeçalho seja o último do IP, terá como conteúdo para qual protocolo de transporte o pacote deverá ser enviado (TCP, UDP, por exemplo). Hop Limit Limite de encaminhamento: é utilizado para impedir que os pacotes não tenham duração eterna na rede. Resolução de nomes (IP x Nome) Nós estudamos que os endereços IP são utilizados para a identificação unívoca de um host possuem 32 bytes, na versão Ipv4, e utilizam a notação decimal separada por ponto. Existe uma outra forma de identificação, mais intuitiva, já que os usuários de computadores lembram com muito mais facilidade de nomes do que de números. Desta forma, nomes comuns ou amigáveis podem ser atribuídos ao endereço IP do computador , através da utilização de um sistema de nomes, associando nomes a endereços IP. A resolução de nomes de host significa, então, o mapeamento bem-sucedido de um nome de host para um endereço IP. É o processo de converter, ou seja, resolver, o nome de um host de uma rede, no respectivo endereço de rede associado. Um nome de host é um alias atribuído a um nó IP, para identificá-lo como um host TCP/IP. O nome de host pode ter até 255 caracteres e conter caracteres alfabéticos e numéricos, hifens e pontos e pode ser atribuído diversos nomes de host a um mesmo host. Fonte:http://technet.microsoft.com/pt-br/library/cc739738(WS.10).aspx Inicialmente, o sistema de nomes foi baseado em uma simples tabela associando o IP ao NOME do HOST. Esta tabela é salva com o nome de arquivo HOSTS e cada máquina possui a cópia deste arquivo em pasta padronizada, que irá variar dependendo do sistema operacional. Apesar da simples implementação, sua utilização é inviável para grandes redes, sendo adotado então outros protocolos, que automatizarão o processo de conversão que iremos estudar na disciplina de Protocolos de Redes de Computadores. A resolução de nomes tem um papel importante na comunicação de rede porque os nomes lógicos de hosts na rede precisam ser resolvidos nos endereços de rede, antes que a comunicação real possa ocorrer entre eles. Que tal experimenta? Clique na opção Iniciar, clique na opção Executar, aparecerá a seguinte janela: Digite cmd e aperte Enter. O prompt de comando do seu computador se abrirá, para você verificar seu nome de host, digite hostname e aperte Enter. Você sabia? Em 1987, alguns visionários previram que algum dia a internet chegaria a 100.000 redes. Muitos especialistas desdenharam, dizendo que isso só aconteceria após muitas décadas, se acontecesse. A centésima milésima rede foi conectada em 1996. O endereço IPv6; Embora o CIDR e a NAT tenham prolongado a vida útil do protocolo Ipv4, sabe-se que é uma questão de tempo para o esgotamento do endereçamento, além da necessidade de evolução para atender as novas demandas das aplicações de áudio e vídeo que crescem a cada dia na Internet. Em 1990 o IETF (The Internet Engineering Task Force), começou a trabalhar em um nova versão do protocolo que tinha entre seus principais objetivos: Aceitar bilhões de hosts, mesmo com alocação de espaço de endereços ineficientes; Reduzir o tamanho das tabelas de roteamento; Simplificar o protocolo, de modo a permitir que os roteadores processem os pacotes com mais rapidez; Oferecer mais segurança (autenticação e privacidade) do que o IP atual. Dar mais importância ao tipo de serviço, particularmente no caso de dados em tempo real; Permitir multidifusão, possibilitando a especificação de escopos; Permitir que um host mude de lugar sem precisar mudar de endereço; Permitir que o protocolo evolua no futuro; Permitir a coexistência entre protocolos novos e antigos, durante anos. Desta forma, o protocolo Ipv6 (RFCs 2460 e 2466) preservou os bons recursos do seu antecessor, descartou ou reduziu a importância das características ruins e criou outras, quando necessário. Apesar de não ser compatível com o IPv4, ele é compatível com todos os outros protocolos auxiliares da Internet, incluindo TCP, UDP, ICMP, IGMP, OSPF, BGP e DNS. TCP - Transmission Control Protocol UDP - User Datagram Protocol ICMP - Internet Control Message Protocol IGMP - Internet Group Management Protocol Ospf - Open Shortest Path First BGP – Border Gateway Protocol DNS – Domain name Server Endereçamento Ipv6 Foi criada uma nova notação para representar endereços de 16 bytes. Eles são escritos sob a forma de oito grupos de quatro dígitos hexadecimais, separados por sinais de dois-pontos entre os grupos. 2001:0DB8:AD1F:25E2:CADE:CAFE:F0CA:84C1 Na representação de um endereço IPv6 é permitido: Utilizar caracteres maiúsculos ou minúsculos; Omitir os zeros à esquerda; e Representar os zeros contínuos por “::”. Por exemplo: 2001:0DB8:0000:0000:130F:0000:0000:140B 2001:db8:0:0:130f::140b 2001:db8::130f::140b (Formato inválido pois irá gerar ambiguidade) Cabeçalhos de extensão Cabeçalho hop-by-hop options: Identificado pelo valor 0 no campo Próximo Cabeçalho, o cabeçalho de extensão Hop-by-Hop deve ser colocado imediatamente após o cabeçalho base IPv6. As informações carregadas por ele devem ser examinadas por todos os nós intermediários ao longo do caminho do pacote até o destino. Na sua ausência, o roteador sabe que não precisa processar nenhuma informação adicional e assim pode encaminha o pacote para o destino final imediatamente. Destination Options: Identificado pelo valor 60, no campo Próximo Cabeçalho, o cabeçalho de extensão Destination Options carrega informações que devem ser processadas pelo nó de destino do pacote, indicado no campo Endereço de Destino do cabeçalho base. A definição de seus campos é igual as do cabeçalho Hop-by-Hop. Routing: a função, realizada pelo cabeçalho Routing Type 0, tornou-se obsoleta pela RFC5095 devido a problemas de segurança. Um novo cabeçalho Routing, o Type 2, foi definido para ser utilizado como parte do mecanismo de suporte a mobilidade do IPv6, carregando o Endereço de Origem do Nó Móvel em pacotes enviados pelo Nó correspondente. Fragmentation: identificado pelo valor 44, no campo Próximo Cabeçalho, é utilizado quando o pacote IPv6 a ser enviado é maior que o Path MTU (Maximum transmission unit). Authentication: identificado pelo valor 51 no campo Próximo Cabeçalho. Utilizado pelo IPSec para prover autenticação e garantia de integridade aos pacotes IPv6. Encrypted security payload: identificado pelo valor 52, no campo Próximo Cabeçalho, e é também utilizado pelo IPSec, garante a integridade e confidencialidade dos pacotes. Composição Do Endereço IP Os endereços IP são compostos de dois identificadores: o ID de host e o ID de rede; O ID de host é utilizado para descrever cada dispositivo em uma rede. Os IDs de host devem ser únicos na rede. Dois hosts não podem ter um mesmo ID de host em uma mesma rede. Os IDs de rede não devem ser 127, que é um endereço reservado de loopback local; ATENÇÃO Cada rede de IP deve ter um único ID de rede, que seja comum a todos os host, nesse segmento. Duas redes não podem ter o mesmo ID. ICANN Órgão responsável pela coordenação global do sistema de identificadores exclusivos da Internet. Entre esses identificadores, estão nomes de domínio (como .org, .museum e códigos de países, como .UK) e os endereços usados em vários protocolos da Internet. (http://www.icann.org.br). IANA Os IDs de rede devem ser únicos no planeta e, se expostos à Internet, registrados no IANA (Internet Assigned Numbers Authority) em http://www.iana.org; Endereço de Broadcast É identificado por todos os 1s binários de um ID de host. Vale lembrar que, quando um octeto tem todos os 1s binários, significa na notação decimal o número 255. Desta forma, os IDs de host e de rede não devem ser configurados com este endereço, pois, foi reservado para o endereço de broadcast. O Endereço Local Não é roteado e é identificado por todos os zeros de um ID de host. Tanto o ID de host como os IDs de rede não podem ser configurados com todos os zeros binários. Esse endereço especial é reservado apenas aos pacotes “locais” e que não serão encaminhados pelos roteadores; Endereços Reservados A IANA (internet Assigned Numbers Autorithy) reservou os três seguintes blocos de espaço de endereço IP para o endereçamento de redes privadas, ou seja, não poderá ser utilizado pela internet: Máscara de sub-rede Uma máscara de sub-rede é uma string contínua de 1s binários que identificam ou mascaram a parte do ID de rede de um endereço IP. O propósito de uma máscara de sub-rede é identificar o comprimento e o valor de um ID de rede. O IP utiliza a máscara de sub-rede local combinada com o endereço IP local para identificar a rede local. Intervalo e Classificação dos Endereços IP A classe D é utilizada para multicasting, que permite a entrega a um conjunto de computadores. O funcionamento do multicast na camada de rede é semelhante ao que já estudamos na camada de enlace na aula passada. Você sabia? Os primeiros quatro bits de um endereço determinam a classe a que o endereço pertence. Sub-rede A solução foi permitir que uma rede seja dividida em diversas partes para uso interno, mas externamente continue a funcionar como uma única rede. Nós já aprendemos que os endereços IP são divididos em duas partes: uma parte representa o endereço de rede (bits de ordem superior) e a outra parte o endereço de host (bits de ordem inferior). Em vez de ter um único endereço para indicar o número de rede , alguns bits são retirados do número do host para criar um número de sub-rede. Para implementar a divisão em sub-redes, é necessário uma máscara de sub- rede que indique a divisão entre o número de rede + sub-rede e o host. As máscaras de sub-rede também são escritas em notação decimal com pontos, com a inclusão de uma barra vertical seguida pelo número bits na parte de rede + sub-rede. Fora da rede, a divisão em sub-redes não é visível e não exige a intervenção do ICANN. A barra vertical mostra o limite entre o número da sub-rede e o número do host. À esquerda está o número de sub-rede de 6 bits e à direita está o número de host de 10 bits. CIDR (Classless InterDomain Routing) A ideia básica do CIDR, descrito pela RFC 1519, é alocar os endereços IP restantes em blocos de tamanho variável, sem levar em consideração as classes. Se um site precisar, por exemplo de 2.000 endereços, ele receberá um bloco de 2.048 endereços em um limite de 2.048 bytes. A porção de endereço de rede tem tamanho arbitrário. O formato do endereço: A.B.C.D/x, em que x é o número de bits na parte de rede do endereço .éia básica do CIDR, descrito pela RFC 1519, é alocar os endereços IP restantes em blocos de tamanho variável, sem levar em consideração as classes. Se um site precisar, por exemplo de 2.000 endereços, ele receberá um bloco de 2.048 endereços em um limite de 2.048 bytes. A porção de endereço de rede tem tamanho arbitrário. O formato do endereço: A.B.C.D/x, em que x é o número de bits na parte de rede do endereço . Exemplo Suponha que a Empresa X necessite de 2048 endereços e receba os endereços 194.24.0.0 a 194.24.7.255 e máscara de de 255.255.248.0. Em seguida, a empresa Y solita 4.096 endereços. Como um bloco de 4.096 endereços deve ficar em um limite de 4.096 bytes, não podem ser fornecidos endereços que comecem em 194.24.8.0. Em vez disso, são fornecido endereços de 194.24.16.0 a 194.24.31.255, juntamente com a máscara 255.255.240.0. Agora, a empresa Z solicita 1.024 endereços e são atribuídos a ela os endereços de 194.24.8.0 a 194.24.11.255, bem como a máscara 255.255.252.0. NAT – Network Address Translator (Tradutor de Endereço de Rede) Dentro das instalações da empresa, toda máquina tem um endereço exclusivo, através da utilização dos endereços reservados, estudados anteriormente. Quando o pacote deixa as instalações da empresa, ele passa por um elemento conversor, neste caso, poderá ser um firewall, um roteador ou proxy, que irá converter o endereço privado em um endereço válido IP válido e pertencente à rede da organização. Como a NAT funciona? Dentro das instalações da empresa, toda máquina tem um endereço exclusivo, através da utilização dos endereços reservados, estudados anteriormente. Quando o pacote deixa as instalações da empresa, ele passa por um elemento conversor, neste caso, poderá ser um firewall, um roteador ou proxy, que irá converter o endereço privado em um endereço válido IP válido e pertencente à rede da organização. Quais são os endereços considerados especiais pelo protocolo IPv4? Endereço broadcasting e endereço local. O protocolo IPv6 foi desenvolvido para resolver o problema do esgotamento dos endereços IPv4. Desta forma o protocolo Ipv6 utiliza endereços mais longos, diferentes dos 8 bytes utilizados pelo seu antecessor, de: 16 bytes. Qual a motivação das empresas pra utilizar o conceito de CIDR em sua rede? Utilizar os endereços IP em blocos de tamanho variável, sem levar em consideração as classes. Aula 8: Noções de Algoritmos e Protocolos de Roteamento Roteamento Normalmente, uma máquina está ligada diretamente a um roteador, também chamado de roteador default ou roteador do primeiro salto. Sempre que uma máquina emitir um pacote, o pacote será transferido para seu roteador default e posteriormente para o roteador destino. No exemplo, caso uma máquina da Rede Local de São Paulo deseje transmitir uma mensagem para uma máquina na rede local do Rio de Janeiro, a máquina de origem, que neste caso pertence a rede de São Paulo, deverá primeiro enviar o pacote para o seu roteador default. Desta forma, nosso foco de estudo será compreender como o roteador de origem transfere um pacote até o roteador de destino, já que a máquina destino também está diretamente ligada a um roteador, que neste caso é denominado de roteador destino. Para que um roteador seja capaz de realizar a transferência dos dados recebidos, ele precisa que algumas perguntas sejam respondidas: O endereço de destino recebido da origem diz ao roteador para onde o tráfego vai. Além desta informação, ele irá precisar saber qual a direção, ou seja, o caminho a ser seguido. O melhor caminho ao destino deve ser determinado para que o roteador possa encaminhar os pacotes eficazmente. E neste caso os outros roteadores da rede podem providenciar esta resposta. Quanto mais nova for a informação melhor será o resultado final. Portanto, a finalidade de um algoritmo de roteamento é simples: dado um conjunto de roteadores conectados por enlaces, um algoritmo de roteamento descobre um “bom caminho” entre o roteador de origem e o roteador de destino. Como saber o que é um “bom caminho”? Normalmente um “bom caminho” é aquele que tem o “menor custo”. Por exemplo, dado que a rede de origem 172.20.0.0/23 (X) deseja transmitir pacotes para a rede destino 172.30.0.0/23 (Y), existem muitos caminhos entre as duas redes e cada caminho tem um custo. Um ou mais destes caminhos podem ser um caminho de menor custo. Normalmente, os custos relacionados a um caminho são representados, por exemplo, pelo tamanho físico do enlace, a velocidade ou o custo monetário associado a este enlace. Algoritmo de roteamento global; Os algoritmos de roteamento global calculam o caminho de menor custo entre a origem e um destino, usando o conhecimento completo e global sobre a rede. Em outras palavras, o algoritmo considera como dados de cálculo a conectividade entre todos os nós e todos os custos dos enlaces. Isso exige que o algoritmo obtenha essas informações, de algum modo, antes de realmente realizar o cálculo. O cálculo, em si, pode ser executado em um local ou duplicado em vários locais. Estes tipos de algoritmos são frequentemente denominados de algoritmos de estado de enlace (link-state – LS) Em um algoritmo de estado de enlace, a topologia da rede e todos os custos de enlace são conhecidos, isto é, estão disponíveis como dados para o algoritmo de estado de enlace. Isto ocorre, fazendo com que cada nó transmita pacotes de estado de enlace a todos os outros nós da rede, sendo que cada um destes pacotes contém as identidades e os custos dos enlaces ligados a ele. Algoritmo de roteamento descentralizado; No algoritmo de roteamento descentralizado, o cálculo do caminho de menor custo é realizado de modo interativo e distribuído. Nenhum nó tem informação completa sobre os custos de todos os enlaces da rede. Em vez disso, cada nó começa sabendo apenas os custos dos enlaces diretamente ligados a ele. Então, por meio de um processo iterativo de cálculo e de troca de informações com seus nós vizinhos (nós que estão na outra extremidade dos enlaces aos quais ele próprio está ligado), um nó gradualmente calcula o caminho de menor custo até um destino ou um conjunto de destinos. Um exemplo de algoritmo de roteamento descentralizado é o algoritmo de vetor de distâncias (distance-vector algorithm – DV) porque cada nó mantém um vetor de estimativas de roteamento descentralizados de custos (distâncias) de um nó até todos os outros nós da rede. Em um algoritmo de vetor de distância, cada nó recebe alguma informação de um ou mais vizinhos diretamente ligados a ele, realiza cálculos e, em seguida, distribui os resultados de seus cálculos para seus vizinhos. Este processo é repetido, até que não nenhuma informação seja trocada entre vizinhos. Algoritmo de roteamento estático Em algoritmos de roteamento estático, as rotas mudam muito lentamente o longo do tempo, muitas vezes como resultado de intervenção humana através da configuração manual de uma rota. Neste tipo de algoritmo, todos os computadores ou roteadores na rede tomam suas próprias decisões de roteamento, seguindo um protocolo formal de roteamento. Em MANs e WANs, a tabela de roteamento para cada computador é desenvolvida individualmente pelo seu administrador de rede. Algoritmo de roteamento dinâmico Os algoritmos de roteamento dinâmico mudam os caminhos de roteamento, à medida que mudam as cargas dos tráfegos ou a topologia de rede. Um algoritmo dinâmico pode ser rodado periodicamente, ou como reação direta à mudança de topologia de rede, ou de custos dos enlaces. Ao mesmo tempo em que são mais sensíveis às mudanças na rede, os algoritmos dinâmicos também são mais suscetíveis a problemas como loops de roteamento e oscilação de rotas. Algoritmo de roteamento sensível à carga e insensível à carga Os algoritmos de roteamento sensíveis à carga, os custos de enlace variam, dinamicamente, para refletir o nível corrente de congestionamento no enlace subjacente. Caso haja um alto custo associado ao enlace congestionado, o algoritmo tenderá a escolher rotas que evitem esse enlace congestionado. Já os algoritmos de roteamento insensíveis à carga, atualmente utilizado na internet (RIP, OSPF e BGP), não levam em consideração o custo, pois, o custo de um enlace não reflete explicitamente seu nível de congestionamento corrente. Protocolos de Roteamento Um protocolo de roteamento é um protocolo utilizado para trocar informações entre computadores, de modo a permitir que eles montem e mantenham suas tabelas de roteamento. Quando novos caminhos são acrescentados, ou quando os caminhos estão obstruídos e não podem ser utilizados, são enviados mensagens entre computadores utilizando o protocolo de roteamento. Roteamento na Internet A Internet, na prática, não é constituída de um conjunto homogêneo de roteadores, todos rodando o mesmo algoritmo de roteamento. Ela é constituída de várias redes interconectadas, onde cada organização pode executar o algoritmo de roteamento que desejar ou, ainda, ocultar do público externo aspectos internos de rede da organização. Como forma de minimizar a complexidade da gestão administrativa e de autonomia destas redes, os roteadores foram agrupados, formando um sistema autônomos (AS) com cada AS consistindo de um grupo de roteadores sob o mesmo controle administrativo, isto é , operado pelo mesmo ISP ou pertencente a uma mesma rede corporativa. Em um Sistema Autônomo (AS), o algoritmo de roteamento, que roda dentro do AS, é denominado protocolo de roteamento intra-AS e, ao conectarmos vários ASs entre si, um ou mais roteadores em um As terá a tarefa adicional de ficar responsável por transmitir pacotes a destinos externos ao AS. Este roteadores são denominados de roteadores de borda (gateway routers). Um outro ponto a observarmos é que ao ligarmos vários ASs entre si, será necessário obter informações sobre as condições de alcance dos As vizinhos e propagar estas informações entre todos os roteadores internos ao As. Estas ações são realizadas através do protocolo de roteamento inter-AS. Desta forma, para que dois As troquem informações é necessário que estes dois As executem o mesmo protocolo de roteamento Inter-AS. Cada cor representa um sistema autônomo Protocolo de Roteamento Intra-AS Um protocolo de roteamento intra-AS é usado para determinar como é executado o roteamento dentro de im sistema Autônomo (AS). Os protocolos de roteamento intra-AS são também conhecidos como protocolos de roteadores internos (IGP): Routing Information Protocol RIP - protocolo de roteamento dinâmico, que utiliza algoritmo de vetor de distância. Geralmente, é utilizado em redes menores. Open shortest path first OSPF - protocolo de roteamento dinâmico que utiliza algoritmo de estado de enlace. Geralment,e é utilizado na internet. É mais eficiente que o RIP. Intermediate System to Intermediate System IS - IS - protocolo de roteamento dinâmico, que utiliza algoritmo de estado de enlace. Geralmente, é utilizado em redes de grande porte. Enhanced Interior Gateway Routing Protocol EIGRP - protocolo de roteamento dinâmico, que utiliza algoritmo de estado de enlace. Foi desenvolvido pela Cisco. Protocolo de Roteamento Inter-AS O protocolo de roteamento inter-AS é responsável pela determinação dos caminhos entre origem e destino que abrangem vários ASs. Atualmente, o protocolo utilizado na Internet é o BGP (Border Gateway Protocol). O BGP é um protocolo de roteamento dinâmico que utiliza vetor à distância, para trocar informações de roteamento entre os sistemas autônomos. Algoritmos - conjunto de regras e operações matemáticas bem definidas e estruturadas, utilizadas para descrever uma sequência lógica para a solução de um problema. Ao lado um exemplo de algoritmo de roteamento de estado de enlace (LS) O protocolo de roteamento inter-AS é responsável pela determinação dos caminhos entre origem e destino que abrangem vários ASs. Atualmente o protocolo utilizado na Internet é o? BGP Qual a finalidade na utilização de um algoritmo de roteamento? É utilizado para descobrir um “bom caminho” entre o roteador de origem e o roteador de destino. Como os algoritmos de roteamento global calculam o caminho de menor custo entre a origem e um destino? Através do cálculo da conectividade entre todos os nós e todos os custos dos enlaces. Aula 9: Noções de Segurança da Informação A Necessidade Da Segurança Da Informação Em Redes De Computadores A internet se tornou essencial para muitas instituições hoje, incluindo empresas de grande e pequeno porte, universidades e órgãos do governo. Além das organizações, as pessoas também contam com a Internet para suas atividades sociais, profissionais e pessoais. Porém, como tudo na vida, que tem um lado positivo e outro negativo, além de toda a utilidade oriunda da internet, existem também pessoas mal- intencionadas que tentam causar problemas em nosso cotidiano danificando os computadores conectados à Internet, violando a privacidade e tornando inoperantes os serviços da internet dos quais as pessoas e organizações dependem. Com o aumento da utilização da Intenet, também ocorreu um aumento no número de ataques e problemas relacionados com a segurança destes equipamentos e informações disponibilizados através da Internet. Desta forma, tornou-se evidente a necessidade de ferramentas automatizadas para proteger arquivos e sistemas de informações armazenados em computador. O nome genérico para o conjunto de ferramentas projetadas para proteger dados e impedir ataques de pessoas mal- intencionadas, segundo Stallings, é segurança de computador. Como atualmente são utilizadas tecnologias de sistemas distribuídas, redes de computadores e recursos de comunicação para transmitir dados entre o usuário terminal e o computador e entre computadores, é comum utilizarmos o termo segurança de rede para denominarmos o conjunto de medidas de segurança de rede necessárias para proteger os dados durante sua transmissão. Criptografia De Dados Criptografia é a ciência e arte de escrever mensagens em forma cifrada ou em código. É parte de um campo de estudos que trata das comunicações secretas usadas, entre outras finalidades, para: Autenticar a identidade de usuários; Autenticar e proteger o sigilo de comunicações pessoais e de transações comerciais e bancárias; Proteger a integridade de transferências eletrônicas de fundos. Uma mensagem codificada por um método de criptografia deve ser privada, ou seja, somente aquele que enviou e aquele que recebeu devem ter acesso ao conteúdo da mensagem. Além disso, uma mensagem deve poder ser assinada, ou seja, a pessoa que a recebeu deve poder verificar se o remetente é mesmo a pessoa que diz ser e ter a capacidade de identificar se uma mensagem pode ter sido modificada. Os métodos de criptografia atuais são seguros e eficientes e se baseiam no uso de uma ou mais chaves. A chave é uma sequência de caracteres, que pode conter letras, dígitos e símbolos (como uma senha) e que é convertida em um número, utilizado pelos métodos de criptografia para codificar e decodificar mensagens. Atualmente, os métodos criptográficos podem ser subdivididos em duas grandes categorias, de acordo com o tipo de chave utilizada: a criptografia de chave única e a criptografia de chave pública e privada. Como A Criptografia Funciona? O emissor, no caso Alice, gera uma mensagem original chamada de texto simples ou texto puro. Para enviar a mensagem, Alice utiliza uma chave e um algoritmo de cifragem e gera um texto cifrado, que é transmitido para um receptor. Ao chegar ao receptor, no caso Bob, este texto passa pelo processo inverso, chamado de decifragem, resultando no texto simples original. A mensagem deverá ser incompreensível para quem não tem autorização para lê-la, no caso Tredy, pois não possui a chave para decifrar a mensagem a emissão. A criptografia pode ser genericamente classificada em três diferentes dimensões: Quanto aos tipos de cifras utilizadas (tipos de operações utilizadas na transformação do texto simples para o cifrado); Quanto à simetria das chaves utilizadas (criptografia simétrica e assimétrica); Quanto ao modo de operação de cifra (maneira como o texto simples é processado). Ameaças e Ataques Segundo a definição da RFC 2828, Internet security glossary, uma ameaça é um potencial para a violação da segurança quando há uma circunstância, capacidade, ação ou evento que pode quebrar a segurança e causar danos. Ou seja, uma ameaça é um possível perigo que pode explorar uma vulnerabilidade. Para compreender melhor as possíveis ameaças a que estamos expostos, vamos assistir ao vídeo. Agora que já compreendemos as possíveis ameaças a que estamos expostos, vamos entender o que são os ataques. Ataques Podemos classificar os ataques como passivos ou ativos. Os ataques passivos possuem a natureza de bisbilhotar ou monitorar transmissões e os ataques ativos envolvem alguma modificação do fluxo de dados ou a criação de um fluxo falso. Ataques Passivos Liberação A liberação ou a interceptação do conteúdo da mensagem ocorre quando uma conversa telefônica, uma mensagem de correio eletrônico ou um arquivo transferido, que podem conter informações importantes ou confidenciais e que desejamos impedir que alguém descubra seu conteúdo, é interceptado. Análise do Tráfego E a análise do tráfego. Nesta modalidade o oponente observa o padrão das mensagens enviadas e pode determinar o Local e a identidade dos envolvidos na comunicação e observar a frequência e o tamanho das mensagens trocadas. Estas informações podem ser úteis para descobrir a natureza da comunicação que estava ocorrendo. Ataques Ativos Os ataques ativos envolvem alguma modificação do fluxo de dados ou a criação de um fluxo falso e podem ser subdivididos em quatro categorias: Disfarce Um ataque ativo da categoria disfarce ou fabricação ocorre quando uma entidade finge ser uma entidade diferente. Modificação de Mensagem Um ataque da categoria de modificação de mensagem simplesmente significa que alguma parte de uma mensagem legítima foi alterada ou que as mensagens foram adiadas ou reordenadas para produzir um efeito não autorizado. Repetição Outro tipo de ataque é a repetição da mensagem, que envolve a captura passiva de uma unidade de dados e sua subsequente retransmissão para produzir um efeito não autorizado. Negação de Serviço Um outro tipo de ataque é a negação de serviço. Este tipo de ataque impede ou inibe o uso ou gerenciamento das instalações de comunicação Esse ataque pode ter um alvo específico como, por exemplo, um servidor. Outra forma de negação de serviço é a interrupção de uma rede inteira, seja desativando a rede ou sobrecarregando-a com mensagens, a fim de prejudicar o desempenho. A Negação de Serviço (DoS) é uma atividade maliciosa, em que o atacante utiliza um computador para tirar de operação um serviço ou computador conectado à internet. Um amplo grupo de ameaças pode ser classificado como ataques de recusa de serviço (DoS). Um ataque DoS torna uma rede, um servidor ou parte da infraestrutura inutilizável por usuários verdadeiros. A maioria dos ataques Dos pode ser dividido em três categorias: Ataque de Vulnerabilidade Envolve o envio de mensagens perfeitas a uma aplicação vulnerável ou a um sistema operacional, sendo executado em servidor alvo. Inundação na Largura de Banda O atacante envia um grande número de pacotes à máquina alvo, tantos pacotes que o enlace de acesso ao alvo fica congestionado, impedindo os pacotes legítimos de alcançarem o servidor. Inundação na Conexão O atacante estabelece um grande número de conexões TCP semiabertas ou abertas na máquina alvo. Uma variação do ataque DoS é o DdoS, ataque DoS distribuído, em que o atacante controla múltiplas fontes que sobrecarregam o alvo, ou seja, um conjunto de computadores é utilizado para tirar de operação um ou mais serviços ou computadores conectados à internet. Os ataques DdoS são muito mais difíceis de detectar e de prevenir do que um ataque DoS. Como Proteger A Rede Para compreendermos melhor a necessidade dos mecanismos de proteção, vamos assistir ao vídeo Firewall (olhar digital). Vimos que a Internet não é um lugar muito seguro, os administradores de rede devem considerar que o mundo está dividido em duas partes: aqueles que pertencem à organização e que deveriam poder acessar recursos dentro da rede de um modo relativamente livre de restrição, e todos os outros usuários, cujo acesso aos recursos da rede deve ser cuidadosamente inspecionado. Desta forma, os administradores de rede devem inspecionar todo o tráfego que entra e sai da organização. Quando o tráfego que entra e sai em uma rede passa por uma inspeção de segurança, é registrado, descartado ou transmitido; isto é feito por mecanismos operacionais conhecidos como: Firewalls; Sistemas de detecção de invasão (IDSs) e sistemas de prevenção de invasão (IPSs). Firewalls Um Firewall é um dispositivo de segurança, uma combinação de hardware e software, que filtra o tráfego de entrada e de saída de uma rede de computadores. Ele isola a rede interna da organização da área pública da Internet, permitindo que alguns pacotes passem e outros não. Desta forma o administrador de rede controla o acesso entre o mundo externo e os recursos da rede que administra, gerenciando o fluxo de tráfego de e para esses recursos. Os firewalls podem ser classificados em duas categorias: Filtros de Pacotes Gateways de Aplicação Negação de Serviço Através da inundação de pacotes SYN, o atacante estabelece muitas conexões TCP falsas, esgotando os recursos para as conexões “reais”; Modificações e acessos ilegais aos dados internos: em que o atacante substitui, por exemplo, uma página de alguma organização por alguma outra coisa; Modificações e Acessos Ilegais aos Dados Internos Permite apenas acesso autorizado à rede interna (conjunto de usuários e hospedeiros autenticados). Acesso Indevido aos Recursos da Rede Interna Em que o atacante substitui, por exemplo, uma página de alguma organização por alguma outra coisa; Acesso indevido aos recursos da rede interna: permite apenas acesso autorizado à rede interna (conjunto de usuários e hospedeiros autenticados). Normalmente toda organização para acessar a Internet possui um roteador de borda que conecta sua rede interna com seu ISP. Todo tráfego que entra e sai na rede interna passa por esse roteador e é nesse roteador que ocorre a filtragem de pacotes. Um filtro de pacotes examina cada datagrama que está sozinho, determinando se o datagrama deve passar ou ficar baseado nas regras específicas do administrador. As decisões de filtragem (de enviar ou descartar pacotes) são normalmente baseadas em : Um administrador de rede configura o firewall com base na política de segurança da organização. Política e regras de filtragem correspondentes para uma rede da organização 130.27/16 com servidor web 130.207.244.203 A política pode considerar a produtividade do usuário e o uso da largura de banda, bem como as preocupações com segurança da organização. Gateway de Aplicação Para assegurar um nível mais refinado de segurança, os firewalls têm que combinar filtros de pacotes com gateways de aplicação. Os gateways de aplicação tomam decisões com base em dados da aplicação. Um gateway de aplicação é um servidor específico de aplicação por onde todos os dados da aplicação (que entram e que saem) devem passar. Vários gateways de aplicação podem executar no mesmo servidor, mas cada gateway é um servidor separado, com seus próprios processos. A imagem mostra um gateway de aplicação para o protocolo de camada de aplicação telnet. A política implementada neste exemplo é que apenas um conjunto restrito de usuários execute o Telnet para o exterior e que todos os usuários externos estejam impedido de executar o Telnet para o interior da rede. Neste exemplo, a política foi implementada através da combinação de um filtro de pacotes (no roteador) com um gateway de aplicação de Telnet. O filtro do roteador esta configurado para bloquear todas as conexões Telnet, exceto aquelas que se originam do endereço IP do gateway de aplicação. Essa configuração de filtro força todas as conexões Telnet de saída a passarem pelo gateway de aplicação. O gateway de aplicação Telnet, neste exemplo, não só autoriza o usuário, mas também atua como um servidor Telnet e um cliente Telnet, passando informações entre o usuário e o servidor Telnet remoto. Redes internas frequentemente têm vários gateways de aplicação, como gateways para Telnet, HTTP, FTP, cache Web (Proxy) e e-mail. Sistema de Detecção de Intrusão (IDS) Para detectar muitos tipos de ataques, precisamos executar uma inspeção profunda de pacote, ou seja, precisamos olhar através dos campos de cabeçalho e dentro dos dados da aplicação que o pacote carrega. Um IDS (Intrusion Detection System) é um programa ou um conjunto de programas, cuja função é detectar atividades maliciosas ou anômalas. Sistema de Detecção de Intrusão (IDS – intrusion detection system) O dispositivo que gera alertas quando observa tráfegos potencialmente mal- intencionados. Sistema de Prevenção de Intrusão (IPS – intrusion prevention system) O dispositivo que filtra o tráfego suspeito. Nesta aula iremos nos referenciar a ambos os sistemas como IDS. Um IDS pode detectar uma série de tipos de ataques: Mapeamento de rede Escaneamento de portas Escaneamento da pilha TCP/IP Ataques de inundação de banda Larga DoS; Wormes e vírus; Ataques de vulnerabilidade de OS; Ataques de vulnerabilidade de aplicação. Atualmente, milhares de organizações empregam sistemas IDS, que podem ser sistemas patenteados, isto é, proprietários, que são comercializados pelas empresas de segurança, ou sistemas de domínio público, isto é, podem ser obtidos gratuitamente através de sites na internet. Uma organização pode implementar um ou mais sensores de IDS em sua rede organizacional. No exemplo abaixo, a organização possui três sensores IDS. Neste exemplo a rede foi divida em duas regiões: 1. Uma de segurança máxima, protegida por um filtro de pacote e um gateway de aplicação e monitorada por sensores IDS; 2. Uma região de segurança baixa, também conhecida como zona desmilitarizada (DMZ, delimitarized zone), protegida somente por um filtro de pacote, mas também monitorada por sensores IDS. Os sistemas IDS podem ser classificados em sistemas baseados em: Assinaturas Os sistemas baseados em assinatura mantêm um banco de dados extenso de ataques de assinaturas. Cada assinatura é um conjunto de regras relacionadas a uma atividade de intrusos. Uma assinatura pode ser uma lista de características sobre um único pacote ou pode estar relacionada a uma série de pacotes. As assinaturas são normalmente criadas por engenheiros de segurança de rede, porém o administrador de rede de uma organização pode personalizar as assinaturas ou inserir as próprias no banco de dados. Anomalias Um IDS baseado em anomalias cria um perfil de tráfego enquanto observa o tráfego em operação normal. Ele procura por cadeias de pacote que estão estatisticamente incomuns. Eles não recorrem a conhecimentos prévios de outros ataques, ou seja, eles podem detectar potencialmente novos ataques, que não foram documentados. Como podem ser classificados os tipos de ataques? Passivo e ativo Qual a função de um firewall? Filtrar o tráfego de entrada e de saída de uma rede de computadores; Os sistemas IDS (detecção de intrusão) podem ser classificados em sistemas baseados em: Anomalias e assinatura. Aula 10: Noções de Gerenciamento e Administração de Redes O Que É Gerenciamento De Rede? A internet pública e as intranets privadas foram crescendo ao longo dos anos e se transformaram de pequenas redes em grandes infraestruturas globais, surgindo assim, a necessidade de gerenciar mais sistematicamente a enorme quantidade de componentes de hardware e software dentro dessas redes. Desta forma, o administrador de rede deve monitorar os equipamentos remotos e analisar os dados para garantir que os equipamentos estejam funcionando e operando dentro dos limites especificados, deve ainda controlar reativamente o sistema, fazendo ajustes de acordo com as modificações ocorridas no sistema ou em seu ambiente e gerenciar proativamente o sistema, detectando tendências ou comportamento anômalos, que permitem executar uma ação antes que surjam problemas sérios. Neste caso o administrador de rede muito se beneficiará se tiver à mão as ferramentas de gerenciamento adequadas que ajudem a: Detecção de falha em uma placa de interface em um hardware da rede; Monitoração de um equipamento da rede; Monitoração de tráfego para auxiliar o oferecimento de recursos; Detecção de mudanças rápidas em tabelas de roteamento; Monitoração de slas; Detecção de intrusos. Funções Do Gerenciamento De Rede Segundo Kurose, a International Organization for Standardization (ISO) criou um modelo de gerenciamento de rede com cinco áreas de gerenciamento, denominado FCPAS, um acrônimo para: Fault (falha): Tratamento imediato de falhas transitórias da rede como, por exemplo, interrupção do serviço em enlaces, hospedeiros, ou em hardware e software de roteadores. Configuration (configuração): Permite que o administrador da rede saiba quais os dispositivos que fazem parte da rede e quais suas configurações de software e hardware. É responsável pela descoberta, manutenção e monitoração de mudanças à estrutura física e lógica da rede. Accounting (contabilização): Corresponde à especificação, ao registro e ao controle do acesso de usuários e dispositivos aos recursos da rede. Também fazem parte deste gerenciamento: quotas de utilização, cobrança por utilização e alocação de acesso privilegiado a recursos. Performance (Desempenho): A única forma de desenvolver ações de proatividade é construindo uma base de dados do comportamento da infraestrutura, buscando identificar os critérios de estabilidade do ambiente monitorado, garantindo que a rede opere em conformidade e com a qualidade proposta pelo administrador através de quantificar, medir, informar, analisar e controlar o desempenho dos diferentes componentes da rede. Security (segurança): Seu objetivo é o controlar o acesso aos recursos da rede de acordo com alguma política definida. Através dela, os elementos são protegidos, monitorando-se e detectando-se possíveis violações da política de segurança estabelecida, podendo o administrador da rede ser alertado através de alarmes. Mantém logs de segurança tanto para a posterior análise e geração de relatórios como para detectar violações não óbvias manualmente. A Infraestrutura Do Gerenciamento De Rede Em uma arquitetura de um sistema de gerenciamento de rede existem três componentes principais: Entidade Gerenciadora É uma aplicação que, em geral, é executada em uma estação central de gerência de rede. Controla a coleta, o processamento, a análise e/ou a apresentação de informações de gerenciamento de rede. É aqui que o administrador humano interage com os dispositivos da rede e onde são iniciadas ações para controlar o comportamento da rede. Dispositivo gerenciado: É um equipamento de rede (incluindo seu software) que reside em uma rede gerenciada. Pode ser um servidor, um roteador, uma ponte, um hub, uma impressora ou um modem. No interior de um dispositivo gerenciado pode haver diversos objetos gerenciados e um agente de gerenciamento de rede. As informações de gerenciamento ou os objetos gerenciados são chamados de módulos MIB e podem ser, por exemplo, um contador, um conjunto de informações descritivas ou informações de estado. Estes são na verdade, as peças de hardware propriamente ditas que estão dentro do dispositivo gerenciado (por exemplo, uma placa de rede) processo que é executado no dispositivo gerenciado, que se comunica com a entidade gerenciadora e que executa ações locais nos dispositivos gerenciados sob o comando e o controle da entidade gerenciadora. Protocolo de gerenciamento: É executado entre a entidade gerenciadora e o agente de gerenciamento de rede dos dispositivos gerenciados, o que permite que a entidade gerenciadora investigue o estado dos dispositivos gerenciados e, indiretamente, execute ações sobre eles mediante seus agentes. Os padrões de gerenciamento de rede começaram a amadurecer no final da década de 1980, sendo que o OSI CMSI/CMIP (Commmon Management Service Element/ Common Management Information Protocol) e o SNMP (Simple Network Management Protocol) da pilha TCP/IP emergiram como os dois padrões mais importantes. Ambos foram projetados para ser independentes de produtos ou de redes de fabricantes específicos. O protocolo SNMP foi projetado e oferecido mais rapidamente e encontrou uma ampla aceitação. Consequentemente, é o protocolo de gerenciamento de rede mais amplamente usado e disseminado. Nós estudamos o funcionamento do protocolo SNMP, na aula 5. ATENÇÃO É importante observar que o protocolo de gerenciamento de rede em si não gerencia a rede. Ele fornece uma ferramenta com a qual o administrador de rede pode gerenciar (monitorar, testar, consultar, configurar, analisar, avaliar e controlar) a rede. Sistemas De Gerenciamento De Redes (aplicativos) As ferramentas de gerência são indispensáveis no dia-a-dia de um administrador de rede no desempenho de suas funções. São elas que ajudam a detectar problemas quando eles ocorrem, ou antes mesmo de ocorrerem (gerência proativa de rede). Gerenciar uma rede sem o auxílio de instrumentação adequada é uma tarefa bastante árdua e que muito provavelmente não oferecerá uma boa qualidade de gerência. Existem ferramentas de gerência para todos os tamanhos e complexidades. As ferramentas mais simples de gerência vêm no próprio sistema operacional de rede. Estas ferramentas não nos dão uma visão geral da rede, porém, muitas vezes, nos ajudam a descobrir características mais internas de determinados elementos da rede. Podemos citar como exemplos o traceroute (tracert), ping, route, netstat, e ipconfig. Dependendo do tamanho e da complexidade da organização, será necessária a utilização de soluções que ofereçam aplicações de monitoração e controle da rede mais sofisticadas, possibilitando a gerência de grandes redes mais facilmente. É então que a organização implementa uma solução denominada plataforma de gerência. Para entender o que é uma plataforma de gerência, temos de entender que as organizações possuem diferentes equipamentos de diferentes fabricantes. O software que executa numa estação de gerência não é uma aplicação única e monolítica. Normalmente a solução de gerência implementada na maioria das organizações é montada modularmente, usando várias aplicações muitas vezes de fabricantes diferentes. Ela permite que aplicações individuais de gerência possam se “plugar” para formar uma solução de gerência completa, permitindo assim a implementação de diversos mecanismos que facilitam a identificação, a notificação e o registro de problemas, como por exemplo: Alarmes que indicam, através de mensagens ou bips de alerta, anormalidades na rede; Geração automática de relatórios contendo as informações coletadas; Facilidades para integrar novas funções ao próprio sistema de gerenciamento; Geração de gráficos estatísticos em tempo real; Apresentação gráfica da topologia das redes. Pesquise na internet sobre os softwares de gerência existentes e poste sua pesquisa no fórum. Mecanismos de Backups e Restore Devido à grande quantidade de informações armazenadas nas organizações, é importante que o administrador de rede utilize algum mecanismo que ajude a proteger os dados de perdas acidentais se ocorrerem falhas de hardware ou de alguma mídia de armazenamento no sistema. Algumas organizações esperam até que aconteça um desastre para então pensar em alguma forma de proteção contra vírus, discos rígidos deteriorados, desastres e erros humanos. O mecanismo utilizado para evitar a perda dos dados e copiar estes dados para mídias alternativas chama-se Backup. Quando vamos implementar uma política de Backup, devemos considerar as seguintes questões: Qual é a necessidade de um backup de rede? Que arquivos precisam de backup? O que é frequência de backup? Tipo de Backups Normal ou Completo Neste tipo de Backup todos os arquivos ou pastas são selecionados para a cópia, mesmo os arquivos que não sofreram nenhuma modificação. Diferencial O backup diferencial é similar ao backup incremental. Ele também faz backup somente dos arquivos modificados, com a diferença que são acumulativos, ou seja, uma vez que um arquivo foi modificado, este continua a ser incluso em todos os backups diferenciais até o próximo backup completo. Incremental Neste tipo de Backup são selecionados os arquivos e pastas selecionados que foram alterados após o último backup normal ou incremental. Além dos tipos de backup, os backups podem ser agendados através das seguintes opções: Uma vez: em uma hora especificada de um determinado dia. Diariamente: em uma hora especificada todos os dias. Semanalmente: em uma hora especificada em dias da semana especificados Mensalmente: em uma hora especificada em um determinado dia todo mês. Na inicialização: na próxima vez que o sistema for iniciado. Restauração dos Dados Restore é o processo de restauração dos dados realizados através de um Backup. A restauração de dados pode: Regravar arquivos e pastas; Regravar dados do sistema; Regravar dados de recuperação referentes à configuração do disco; Restaurar assinaturas, volumes e partições do disco de inicialização; Instalar uma versão de recuperação do SO; Iniciar a restauração a partir do backup. Práticas recomendadas de Backup Nós estudamos o que é backup, os tipos de backup e a importância da sua execução. Vamos estudar agora como as empresa devem desenvolver uma estratégia de Backup, que é o elemento crucial para a segurança dos seus dados. Ao pensar na implementação de uma estratégia de backup, a organização deverá levar em consideração: Os custo referente a reinserção dos dados, caso não tenha uma cópia dos dados; Ou quanto custaria se ficassem sem os dados definitivamente, caso não fosse possível reinseri-los. Uma estratégia de Backup deve passar pelas seguintes fases: Planejamento do backup de dados A organização deve pensar aonde (local físico e lógico) irá armazenar as cópias backups. A periodicidade dos Backups: mensal, diário, incremental, completo. Quais os dados serão contemplados pela política de backup. Quem são os responsáveis pela realização do Backup. Para a organização determinar com mais eficiência a política de backup dos seus dados, é importante saber com que frequência os dados são alterados. Pois, caso existam dados que só são alterados semanalmente, um backup diário não é indicado. Entretanto, caso existam dados importantes que são atualizados a cada hora, haverá a necessidade de realizar uma rotina de backup várias vezes ao dia. Implementação da rotina de backup A política de Backup deverá ser transformada em tarefas diárias das equipes operacionais da organização. É uma boa idéia ter pelo menos três tipos de backups diferentes dos seus dados. Backups completos podem ser complementados por backups incrementais. Em um backup incremental, é feito backup somente dos arquivos que foram alterados após o último backup completo, o que é normalmente muito mais rápido do que fazer um backup completo. Teste da política de backup É importante que o administrador de rede periodicamente teste os backups realizados com o objetivo de verificar se realmente a organização está segura. Este teste é realizado através da tentativa de restauração dos arquivos copiados. O teste mostrará quaisquer falhas ou dados corrompidos nos procedimentos de backup antes que ocorra uma necessidade de restauração dos Backup e seja tarde demais. Outra opção bastante interessante é a verificação periódica dos relatórios ou logs de backup, normalmente oferecidos pelos software de Backups. Nestes relatórios é possível identificar rapidamente quaisquer problemas ou arquivos ignorados durante o processo de backup. Cópia de segurança Muitas pessoas acham que só por que fizeram uma cópia backup de um arquivo, disco ou computador estão protegidas em caso de desastre. Ter uma cópia de backup já é um bom começo, ou seja, possuir duas cópias dos seus arquivos insubstituíveis, a original e a cópia. Entretanto, continua existindo o risco de perda de dados, principalmente se as duas cópias forem mantidas no mesmo local. Para ter a melhor proteção contra a perda de dados, principalmente em eventos catastróficos, é recomendável ter pelo menos três cópias dos dados (os arquivos originais, um backup facilmente acessível e uma cópia de segurança do backup). Para que a organização não tenha problemas, é importante que as cópias sejam armazenadas em locais físicos diferentes. Muitas organizações armazenam a cópia de segurança em outras filiais, caso possuam, ou ainda em empresas terceirizadas. O que é software de Backup? O software de backup consiste em programas para fazer cópias arquivos de um computador da rede, de um diretório ou de um arquivo de um local físico para outro dispositivo físico, para que em caso de acidente ou catástrofe os dados fiquem preservados. Existem no mercado vários tipos de software de backup com licenças do tipo livre ou proprietária. Normalmente estes softwares oferecem opções de agendamento de backups, de diferentes tipos de backups e restauração dos dados. Você sabia? Segundo pesquisa realizada por empresa da área de backup: 34% das empresas NUNCA testaram seus backups. 77% daquelas que testaram seus backups descobriram backups com falhas antes de eles serem necessários. Quais são as cinco áreas de gerenciamento criadas pela ISO? Falha, configuração, contabilização, desempenho e segurança. Um Backup do tipo incremental: Neste tipo de Backup são selecionados os arquivos e pastas selecionados que foram alterados após o último backup normal. Em uma arquitetura de um sistema de gerenciamento de rede existem três componentes principais: Entidade gerenciadora, dispositivo gerenciado e protocolo de gerenciamento.