topo

Introdução

Neste terceiro capítulo, o principal objetivo é demostrar aos gestores que a contratação de hardware, software e instalações de rede passam por um momento de grande mudança, em que a aquisição não é a única opção viável atualmente.

Vamos Falar de Hardware

Apesar de termos software embarcado no título deste capítulo, ele foi mais amplamente discutido no capítulo anterior, no qual falamos do modelo tanto de desenvolvimento de um software novo como da aquisição de software de prateleira. Agora é a vez de um elemento que também é a base de todo o processo de tecnologia, aliás, tem-se que a tecnologia da informação é feita pelo trinômio hardware + software + “peopleware”.

Agora vamos falar o que é hardware, gerar um conceito básico, apesar de poder ser dispensável.

Hardware é o termo usado para designar circuitos e peças eletrônicas em geral. É um termo muito utilizado na informática para definir as peças do computador. No caso da informática em geral, os processadores são os hardwares mais conhecidos, os quais utilizam um sistema binário para processar as informações.

O sistema binário é um sistema em que toda a informação é convertida em códigos com os números zero e um. Os componentes de hardware no computador são sempre ligados entre si, e cada um tem uma função específica que, juntos, tornam a computação possível. O mesmo acontece com outros componentes de hardware, como celulares, aparelhos de música etc.

Existem dois tipos de hardwares no computador: os internos e os externos.

A eficácia da troca de informação entre os componentes de hardware, assim como a capacidade de armazenar dados de alguns, é o que deixa um computador lento ou rápido.

  1. Internos
  1. Externos

Com o avanço atual dos componentes eletrônicos, cada vez mais os computadores ficam potentes, e cada vez mais caros. Peças novas são lançadas a cada dia, e os softwares, muitas vezes, não conseguem acompanhar essa atualização, utilizando todos os recursos que o hardware oferece (por exemplo, muitos processadores atuais possuem vários “núcleos”, mas muitos softwares não estão preparados para utilizar essa tecnologia, então acabam usando apenas um “núcleo” de cada vez).

Adicionalmente, além dos hardwares que compõem soluções de computadores, temos aqueles que compõem outras soluções de informática, como os hardwares de soluções de rede. Existem vários tipos nesse conjunto, e vamos abordar adiante como eles funcionam e se agrupam, mas o importante é guardar que estamos sempre falando dessa parte física, essa parte que pode ser passível de patrimônio, essa parte que pode ser estocada.

Ao contrário do problema de software para patrimônio, o hardware não apresenta esse problema; é apenas caso haja peças moveis ou partes para expansão ou reposição compradas separadamente que requer um inventário, mais eficiente e completo.

Agora que temos fechada nossa definição de hardware, vamos ao nosso objeto de estudo aqui que é o processo de aquisição de hardwares, sejam eles servidores, estações de trabalho, ativos de rede ou adicionais para complemento de trabalho. Na sequência, vamos falar do processo de instalação de redes.

Especificações Técnicas

A etapa mais importante de qualquer processo de aquisição de produto ou serviço é a especificação técnica que deverá estar contida no processo licitatório. A especificação técnica é um marco da sua necessidade evidente e é o nivelador entre as ofertas dos fornecedores. Quando falamos de hardware, normalmente pensamos em existir mais de um fornecedor para aquele mesmo objetivo, e mesmo quando não há mais de um fornecedor, haverá sempre mais de uma empresa habilitada a poder vender praticando ofertas diferenciadas.

Observe o parecer do TCU referente a um exagero que houve no detalhamento de especificações técnicas:

Em representação, foram identificadas irregularidades em pregão para registro de preços realizado para a aquisição de equipamentos de TI. De acordo com a Unidade Técnica, ficou caracterizado direcionamento do certame decorrente do detalhamento excessivo da especificação técnica dos equipamentos, que conduziria à contratação de fornecedores dos produtos de um único fabricante.

Apesar da irregularidade apontada, a Unidade Técnica ponderou que todos os itens licitados foram adquiridos com economia de recursos, razão pela qual é suficiente a expedição de “ciência” à unidade jurisdicionada para que previna novas ocorrências assemelhadas. Analisando o caso, o Relator, no que se refere ao direcionamento, considerou não estar configurado. Sobre esse aspecto, observou que “o direcionamento na descrição do objeto caracteriza-se pela inserção, no instrumento convocatório, de características atípicas dos bens ou serviços a serem adquiridos (…) Para mitigar tal risco, é indispensável atentar para a lição contida no Acórdão 2.383/2014-TCU-Plenário, no sentido de que, em licitações para aquisição de equipamentos, havendo no mercado diversos modelos que atendam completamente as necessidades da Administração, deve o órgão licitante identificar um conjunto representativo desses modelos antes de elaborar as especificações técnicas e a cotação de preços, de modo a evitar o direcionamento do certame para modelo específico e a caracterizar a realização de ampla pesquisa de mercado”. Ao concluir pela inexistência de direcionamento, assim se manifestou “no presente caso, entendo que o Diretor de Gestão da TI do omissis logrou êxito em esclarecer que modelos de outros fabricantes teriam sido analisados à época da elaboração do termo de referência para a composição da configuração solicitada, sendo que seis fabricantes teriam condições de atender ao que foi especificado para cada item (peça 30, p. 4-7). Além disso, o responsável apresentou justificativa tecnicamente aceitável para algumas das características impugnadas (peça 30, p. 8-16). (…) 20. A descrição do objeto de forma a atender às necessidades específicas da entidade promotora do certame não configura direcionamento da licitação, mormente quando não há no edital a indicação de marca específica e quando se verifica no mercado a existência de outros modelos que poderiam atender completamente as especificações descritas no edital”. Apesar de afastar a ocorrência do direcionamento, o Relator entendeu pela parcial procedência da representação devido à constatação de outras ocorrências. (TCU, Acórdão nº 2.829/2015 – Plenário)

Estações de trabalho

O avanço tecnológico criou uma grande variedade de terminologia para produtos muito semelhantes. Desktops, PCs ou estações de trabalho contêm componentes similares, e não diferem em seus usos. Com isso, tornou-se muito comum encontrar produtos que antes eram apenas de uso empresarial em uso doméstico – é bem comum termos um computador pessoal em casa –; esse efeito comercial ganhou o nome de consumerização. Com o efeito da consumerização, a maioria das pessoas hoje possui um computador pessoal em casa, e provavelmente com uma configuração que pode ser melhor que a da sua estação de trabalho, onde ele vai passar grande parte do dia. Isso sempre vai gerar o efeito comparativo e desafiador. O que essas pessoas não entendem é que aquele computador pessoal ficará ligado apenas uma ou duas horas em dias alternados, enquanto esse ficará 8 horas a 10 horas de segunda a sexta, e na primeira “piscada” que ele der, haverá uma ligação para o suporte com uma reclamação para o suporte de sua performance.

Sem sombra de dúvida, para um processo licitatório, o de escolha de estações de trabalho é o que mais vai lhe dar trabalho e dor de cabeça, uma vez que muitas empresas estão qualificadas a serem prestadoras do seu serviço. Inicialmente, vamos esclarecer um pouco quanto ao formato.

Formato

O formato de um computador ajuda na sua definição de uso. Sua característica de portabilidade pode ser um limitador de seu potencial computacional, ganha em versatilidade e perde em processamento e memória na maioria das vezes. Abaixo as principais classificações:

Desktops

Computadores desktops, em comparação com outras formas de computadores, são destinados a permanecer em uma posição, ao contrário de laptops, que são dispositivos móveis. Um sistema desktop normalmente consiste em um monitor e uma torre. Organizações compram desktops para entretenimento, negócios e uso geral.

Workstations

Postos de trabalho, como computadores de mesa, permanecem parados durante todo o uso. A principal diferença entre as estações de trabalho e os desktops está no hardware. Hardware da estação de trabalho é combinado especificamente para fornecer um melhor desempenho para aplicações de uso intensivo. Os usos comuns para as estações de trabalho incluem edição gráfica e de vídeo, bem como aplicativos de dados de alto volume.

Laptops

Muito conhecidos também como notebooks, são computadores portáteis, com bateria para lhe dar autonomia e movimentação. Normalmente contam com a opção de trackpad ao invés de um mouse, seus monitores já vem acoplados e, quando fechados, ficam um pouco maiores que um caderno universitário. Geralmente apresentam poder computacional reduzido, contudo tem-se tornado um grande objeto de demanda, uma vez que agora o trabalho está em todo local, especialmente para os profissionais que viajam pelas cidades. Junto com essa tecnologia, vieram novos desafios, como, por exemplo, como cuidar da segurança da informação, já que essa informação viaja com seus donos, e como garantir seus backups seguros.

Sistema Operacional

Agora que já falamos do formato, vamos falar de outra variável que é fundamental na definição de uma estação de trabalho, seu sistema operacional. A definição do sistema operacional deve estar diretamente ligada à atividade que o profissional vai executar, não ao seu desejo pessoal; ela deve estar ligada ao ecossistema da organização e deve ser suportada pela equipe de TICS. Não se esqueça de incluir o sistema operacional em seu processo de compra, esse tipo de licença de uso é conhecido como OEM, ou seja, é um tipo de licenciamento específico para o computador: enquanto ele estiver funcional, a licença é válida e não pode ser transferida para um outro computador.

PC ou Windows

Os Personal Computers (PC) são os computadores comuns que você conhece. Se você tiver idade suficiente, esse termo certamente o lembrará de algum antigo computador IBM. Os PC são muito populares por terem um padrão aberto, possibilitando que diversas empresas possam produzir o hardware. São os mais utilizados por empresas e para uso doméstico. No entanto, como surgiram e por que me lembro da IBM?

Até a década de 1960, computadores eram geralmente máquinas grandes fechadas e pouco modulares (e muito caras também), sendo muito difícil a substituição, troca ou upgrade de uma capacidade qualquer da máquina. Isso foi revolucionado pela Apple, em 1976, com o lançamento do Apple I e com a popularização das placas-mãe, que consiste em uma grande placa de circuito impresso base, que permitiram a inserção de pequenos módulos que poderiam ser facilmente trocados.

Essa característica permitiu a popularização desses módulos por muitos fabricantes, barateando componentes e facilitando o acesso aos PC por todos nós. Essa modularidade de seus componentes permanece até hoje, o que torna os PC tão populares. Componentes podem ser facilmente trocados ou substituídos – placa-mãe, placa de vídeo, som e rede, memória RAM ou disco rígido – expandindo sua utilização. O sistema operacional predominante nesse tipo de aparelho é o Windows, da Microsoft, havendo ainda uma comunidade bem ativa de usuários Linux e raras exceções com sistemas operacionais alternativos.

E o Mac?

O termo Mac é utilizado de maneira genérica para identificar os computadores da Apple (desktops e notebooks) ou simplesmente para referenciar-se a máquinas com sistema operacional MacOS. A classificação Mac na verdade é apenas um subgênero do PC, já que ambos são computadores pessoais, sendo, inclusive, a própria Apple considerada mãe dos computadores pessoais com o lançamento do Apple I.

Inicialmente, Macs utilizavam processadores únicos, o que diferenciava de maneira significativa dos demais computadores em termos de hardware, algo que foi mudando com o tempo. A diferenciação PC e Mac passou a surgir após grandes campanhas publicitárias da IBM na década de 1980, que diferenciava seus computadores como tal. Em função disso, ocorreu essa diferenciação de mercado (e não técnica, lembrando bem), sendo até hoje o termo PC muito relacionado a esse período e, de maneira geral, referido a antigos computadores pessoais IBM. É por isso que a palavra PC lhe traz aquele IBM Aptiva na memória.

Nas últimas décadas, os Macs passaram a utilizar processadores Intel, que também estão presentes em grande parte dos demais PC. Com essa similaridade de hardware, o diferencial dos produtos Apple torna-se principalmente a interface do sistema e sua otimização em relação ao hardware, além de, é claro, o design de seus produtos.

Antigamente, poder-se-ia afirmar que ter computadores Mac em sua rede administrativa seria um desafio, mas os tempos mudaram. Os protocolos de rede hoje permitem que os computadores se falem entre si de forma mais transparente, não é mais incomum ter na área de marketing um departamento de criação rodando totalmente com Macs.

Processador

O processador é a parte mais importante de um computador. Ele é um componente determinante para a performance da estação de trabalho. Diferentemente do que veremos nas configurações de servidores, as estações de trabalho serão geralmente monoprocessadas (terão apenas uma pastilha). Porém, as tecnologias de hoje evoluíram a ponto de haver nessa única pastilha vários núcleos, que trabalham de forma a parecer que o computador tem mais de um processador trabalhando ao mesmo tempo.

A escolha de um processador deve sempre ser pensada a partir da tarefa que este computador terá. Como veremos adiante, provavelmente haverá a necessidade de criar uma escala do tipo estação de trabalho básica, intermediária e avançada.

Memória

Este é outro componente que também faz diferença na performance da estação de trabalho. A memória RAM do computador deve ser compatível com o conjunto de aplicativos que o usuário vai trabalhar; economia nesse recurso normalmente se prova contraproducente, e não é raro ver casos em que é necessário pensar em expansão e aquisição de memórias adicionais para estações de trabalho. Nesse caso, como no caso do processador, vale a pena pensar bastante em três tipos de configuração: básica, intermediaria e avançada.

Armazenamento

Armazenamento em estações de trabalho, móveis ou fixas, são desafios à parte para gerenciar. Se o disco for pequeno demais, sempre há risco de haver problemas de armazenamento em um curto espaço de tempo. Se o disco for grande demais, mas único, sempre pode existir o risco de este ter um problema. Se o usuário, mesmo que advertido para salvar seus documentos em discos de rede, o fez somente no disco local, pode perder seu conteúdo. Existe também o risco de segurança, quando isso for feito em um disco móvel.

Seja como for, existem hoje dois grandes grupos de discos para estações de trabalho: os discos sólidos, mais caros e de menor capacidade, porém muito mais rápidos, e os discos tradicionais “spin”, que são maiores, mais baratos, contudo mais lentos. Sua escolha sempre deve ser orientada ao uso, lembrando que a melhor política será sempre orientar ao usuário que seus documentos principais devem estar salvos na rede corporativa, de forma que, se um disco desse equipamento, que não apresenta redundância, falhar, ele não perderá todo seu trabalho.

Monitor

Essa é a grande vitrine de um computador: enquanto seu gabinete corre para debaixo da mesa, essa, sim, é a parte visível e de contato humano. Há a necessidade de um estudo adequado quanto às necessidades de um monitor, pois, para cada uso, há um monitor específico. Hoje o mercado oferece uma gama gigantesca de produtos, e tudo que não queremos é acabar de entregar um computador novinho em folha para um usuário e o ver perguntar para o colega do lado se ele tem um livro antigo para colocar de apoio, para o monitor ficar em uma altura mais adequada.

Vamos a algumas características de um bom monitor:

Na atualidade, não há mais de se falar de monitores do tipo CRT (os antigos monitores de tubo que podem ainda serem encontrados) por serem grandes consumidores elétricos, especialmente com o custo dos painéis LCD e LED caindo de preço, mas qual escolher, LCD ou LED?

LCD

O monitor LCD é formado por uma tela de cristal líquido iluminada por trás (backlight) por uma lâmpada CCFL (fluorescente), que emite luz branca e que ilumina as células de cores primárias (verde vermelha e azul).

Vantagens:

Desvantagens:

LED

Um monitor LED tem aparência e funcionamento muito parecido com a do monitor LCD, a principal diferença é o tipo de lâmpada usada no backlight (fundo do monitor) para gerar as imagens. Estas são geradas a partir da iluminação de diodos de luz (as lâmpadas LED), que não levam mercúrio em sua composição.

Vantagens:

Desvantagens:

Portas de Comunicação e Expansão

As portas de comunicação e expansão são unidades que vão se conectando à CPU e permitem que novos periféricos possam ser conectados nessa estação de trabalho. Sempre tenha em mente a utilização para que possa, no seu edital, prever que tipo de porta de comunicação ou expansão será necessária.

Portas de expansão bem comuns são as interfaces de vídeo externas. Imagine o cenário em que a aquisição será de laptop para uso em projetores, e não se sabe ao certo quais projetores teremos pela frente, logo, quanto mais tipos de portas de vídeo tivermos, mais sucesso teremos na nossa jornada de conexão.

Além da porta de vídeo, outra porta bastante comum e procurada são as saídas USB; essas portas são extremamente multifuncionais, servindo de carregadores de telefones à unidade de conexão de pendrives para dados externos.

De forma geral, quanto mais, melhor, quanto mais diversificado, melhor ainda, mas sempre orientado ao seu uso.

Acessórios

Alguns acessórios devem acompanhar a estação de trabalho. Dois pelo menos são mandatórios, o teclado e o mouse, e a qualidade deles conta, sim, afinal é onde o usuário vai interagir por mais tempo. Algumas configurações costumam acompanhar caixas de som. Cuidado com esse tipo de configuração nas corporações, pois, às vezes, elas ganham uso diferente do original planejado.

Garantia e Suporte

Se há um ponto em que a escolha do fornecedor pode realmente fazer diferença está aqui. Éo que, com certeza, separará os aventureiros das empresas sérias e focadas em prestar serviço de qualidade.

As cláusulas de garantia devem não só proteger os equipamentos, devem proteger toda uma estrutura de serviço que agora deverá ser atribuída a um terceiro.

Vamos aos principais pontos da Garantia e Suporte:

Prazo

Aconselho que seja o prazo contábil para depreciação dos ativos com seu setor de bem e materiais. Normalmente, isso é em torno de 48 meses, logo, o suporte e a garantia devem ser no mesmo período. Como se trata de ativos de simples uso e manutenção, não deverá haver um custo alto por isso.

Local

É fundamental que seja especificado o local a serem prestadas a garantia e o suporte, pois sua ausência pode ser entendida como balcão – o que significa que o ônus da retirada e recolocação do equipamento é do contratante. Especifique explicitamente que a garantia é on-site, cite nominalmente quais endereços deverão ser atendidos e qual o horário de funcionamento dessas unidades.

Tempo de Atendimento e Solução

Como estamos tratando de estações de trabalho, a métrica mais usual é a de tempo de atendimento para solução do problema, mas é importante criar uma métrica para tempo máximo de chamado aberto e substituição da estação de trabalho.

Pontos de Atenção para o Edital

Esse será sempre um desafio. Seja pela quantidade de fornecedores, seja pelo fator de consumerização, sempre haverá descontentes e reclamações com esse processo. Para melhor atender a sua SES, pense em fazer com que o fornecedor, não a SES, mantenha um grupo de equipamentos novos como opção para troca imediata disponível; crie ao menos três grupos de equipamentos para o processo licitatório, algo como estação de trabalho básico, intermediário e avançado, ou, se a semântica for um problema, nível I, II e III, mas algo que possa subir o poder do processador, memória e disco, pois são esses os componentes que vão fazer diferença, de fato, em uma estação de trabalho.

Servidor

Quando falamos de servidores, estamos falando de um grupo de computadores que tem um perfil de trabalho muito diferenciado. Eles normalmente são orientados a ficar ligados 24 horas por dia, todos os dias da semana, sem nenhuma folga, normalmente com capacidade de fazer manutenção simples, como uma troca de fonte elétrica, sem a necessidade de se desligar o computador. Esse tipo de computador normalmente fica centralizado em uma estrutura capaz de fornecer a ele energia ininterrupta e refrigeração adicional.

Os servidores podem fornecer várias funcionalidades, muitas vezes chamados de “serviços”, tais como a partilha de dados ou de recursos do sistema entre vários clientes, ou processamento de dados como um banco de dados. Um único servidor pode servir vários clientes, e um único cliente pode usar vários servidores. Um processo de cliente pode ser executado no mesmo dispositivo ou pode se conectar por meio de uma rede para um servidor em um dispositivo diferente.

Hardware

Servidores dedicados, que possuem uma alta requisição de dados por partes dos clientes e que atuam em aplicações críticas utilizam hardware específico para servidores. Já servidores que não possuam essas atuações podem utilizar hardware de um computador comum.

Para começar, muitos servidores baseiam-se em entradas e saídas de informações (principalmente gravações e deleções de arquivos), o que implica interfaces de entrada e saída e discos rígidos de alto desempenho e confiabilidade. O tipo de disco rígido mais utilizado possui o padrão de alta performance, que permite a interligação de vários periféricos, dispostos em arranjos RAID (“Redundant Array of Independent Disks” – Conjunto Redundante de Discos Independentes).

Devido a operar com muitas entradas e saídas de informações, os servidores necessitam de processadores de alta velocidade; algumas vezes, alguns servidores são multiprocessados, ou seja, possuem mais de um processador. Servidores também têm disponível uma grande quantidade de memória RAM, sendo geralmente usada para “caching” de dados.

Por ter que operar por muito tempo (frequentemente de maneira sem parada), alguns servidores são ligados a geradores elétricos. Outros utilizam sistemas de alimentação (por exemplo, o UPS) que continuam a alimentar o servidor caso haja alguma queda de tensão.

Ademais, por operar durante longos intervalos de tempo, e devido à existência de um ou mais processadores de alta velocidade, os servidores precisam de um eficiente sistema de dissipação de calor, o que implica “coolers” mais caros, mais barulhentos, porém de maior eficiência e confiabilidade.

Existem outros hardwares específicos para servidor, especialmente placas, do tipo “hot swapping”, que permite a troca destes enquanto o computador está ligado, o que é primordial para que a rede continue a operar.

Discute-se muito sobre a utilização ou não de um micro comum, o popular PC, como servidor e a necessidade de adquirir ou não um equipamento mais robusto para atuar como servidor. A resposta a essa questão depende da utilização do equipamento e da “criticidade” do serviço que o servidor está executando. Em uma estrutura não crítica, um computador comum pode ser usado como servidor. Note que o tamanho da rede não importa; por exemplo: uma empresa com três instrutores on-line na Internet tem três computadores e um deles é o servidor de acesso à Internet; se este servidor falha, o negócio da empresa está parado.

Prevendo esse tipo de necessidade, os fabricantes de componentes de computadores desenvolvem placas mais robustas, aplicam uma engenharia mais elaborada de ventilação, redundância de itens e capacidade de expansão ampliada, para que o servidor possa garantir a disponibilidade do serviço e a confiabilidade nele.

Normalmente, a preocupação em desenvolver servidores fica centrada em grandes fabricantes do mercado, que possuem equipes preparadas e laboratórios com esse fim.

Sistemas Operacionais

Para que funcione um servidor, é necessário que esteja instalado um sistema operacional que reconheça esse tipo de equipamento e de tarefa. Os sistemas operacionais para servidores atualmente se dividem em dois grandes grupos:

Em servidores, o sistema Posix e sistemas baseados neste (como Linux e Solaris) são os sistemas mais utilizados para aplicações como Firewall e servidor web, ao passo que o sistema Windows é mais utilizado para Gerenciamento de Usuários e serviços pela facilidade de operação e manutenção (AD), mas essa verdade não é absoluta nem é uma regra de conduta.

É fundamental que se entenda o propósito da aquisição do servidor para que se escolha o melhor sistema operacional. Ambas as linhas têm vantagens e desvantagens em cada segmento.

Agora que falamos do hardware e do sistema operacional de forma geral, vamos falar com um pouco mais de detalhes dos principais pontos de atenção e principais componentes que temos nesse tipo de equipamento.

Processador

Quando falamos de processador para servidor, falamos de algo que quase sempre vem no plural. Se ele não estiver no plural, por aceitar o multiprocessamento, ele estará no plural por falar na quantidade de núcleos que existem em cada pastilha, independentemente do fabricante.

O número de processadores e sua velocidade afetam a capacidade do servidor de suportar aplicativos. Os processadores oferecem inúmeras opções de velocidade de “clock” (como também é conhecida a frequência com que o processador trabalha indicando a velocidade interna do processador), quantidade de núcleos e tamanho de cache, permitindo que você escolha o servidor ideal para suas necessidades.

Os processadores são diretamente proporcionais à quantidade de atividades simultâneas que o computador pode fazer.

Há também de se prestar atenção em questões de licenciamento de software uma vez que algumas plataformas suportam apenas um número limitado de núcleos ou faz uma cobrança adicional quando o equipamento apresenta uma quantidade de núcleos superior ao padronizado.

Memória

A memória RAM foi projetada para você ter acesso rápido aos seus arquivos e documentos. A regra básica é adicionar a maior quantidade de RAM possível. Quanto mais RAM disponível, mais operações seu servidor será capaz de gerenciar ao mesmo tempo, sem precisar acessar os discos rígidos.

Da mesma forma que o processador, a memória também é um componente que faz uma diferença dramática quando o assunto for virtualização uma vez que cada máquina virtual terá sua porção de memória alocada para trabalho.

Diferentemente do processador, em que normalmente se adquire um servidor já com sua capacidade máxima de processadores, a memória, pela configuração atual dos servidores, deve estar com previsibilidade de expansão. Nesse caso, tome cuidado para que os bancos de memória não venham todos preenchidos com pentes de memória de pequeno porte, o que, no caso de uma expansão, obrigaria a um descarte da memória atual, para uma aquisição de novas memórias com capacidade mais concentrada.

Um exemplo genérico: seu servidor tem capacidade para 512 gigabytes de memória RAM e contem 16 slots para memória, mas sua demanda atual, com uma eventual expansão, é de 128 gigabytes de memória, seu servidor poderá vir tanto com 4 pentes de 32 gigabytes de memória, que completariam os 128 gigabytes de memória, como também poderia vir com 32 pentes de 4 gigabytes de memória, contudo, na segunda configuração, para uma expansão, a memória atual seria desprezada.

Armazenamento

Neste caso, vamos tratar do armazenamento interno no servidor.

Essa modalidade de armazenamento interno no servidor, também conhecida como “disco na barriga do servidor”, saiu de utilização por um longo período e voltou ao cenário recentemente, com o advento dos processos baseados em tecnologia de “cluster de processamento de dados”, em que cada computador é um ponto do cluster, e ele tem vida própria, inclusive para seu armazenamento local.

Anteriormente, era bem comum que o servidor tivesse apenas os discos necessários para que inicializasse o sistema operacional, carregasse o sistema necessário, e todos os demais dados estariam armazenados em um dispositivo central de armazenamento.

Esse conjunto local normalmente é formado por uma controladora, discos locais que podem ou não estar montados em conjunto. Vamos detalhar esses componentes brevemente.

Controladora Serial ATA

Vamos falar um pouco da controladora Serial ATA que é a mais comum para encontrar localmente em um servidor. Ela é capaz de apresentar três velocidades distintas de transmissão, variando entre 1,5 GBits/s, 3 GBits/s e 6 GBits/s. Não confundir com o disco Serial ATA!

Existem atualmente os seguintes tipos de discos para um sistema de armazenamento:

Disco Serial ATA (SATA)

O SATA foi projetado para substituir o antigo padrão paralelo ATA (PATA) – geralmente chamado pelo antigo nome IDE – que oferece várias vantagens sobre a antiga interface: tamanho de cabo reduzido e baixo custo (7 condutores em vez de 40), “troca a quente” nativa, transferência de dados mais rápida por meio de taxa de sinal superior e transferência mais eficiente pelo protocolo em fila de E/S. Em alguns sistemas sem um controlador, eles podem ser conectados por cabos, em vez de conexões SATA conectadas diretamente na placa-mãe. Em servidores menores com um controlador, eles ainda podem ser conectados porque esses sistemas não terão um barramento de conexão direta. Os discos rígidos não podem ter “troca a quente”.

Nearline SAS

Nearline SAS são unidades SATA empresariais com uma interface SAS, cabeça, mídia e velocidade de rotação de classe empresarial tradicional, totalmente compatíveis com a interface típica SAS para unidades SAS clássicas. Isso proporciona melhor desempenho e confiabilidade na SATA. Basicamente, é um híbrido entre SATA e SAS.

SCSI Anexada Serial (SAS)

SAS é um protocolo de comunicação utilizado nos discos rígidos e unidades de fita empresariais. SAS é um protocolo serial ponto a ponto que substitui a antiga tecnologia de barramento SCSI paralela baseada (SCSI). Ele usa o conjunto de comandos padrão SCSI. Esses têm conexões extras por meio da parte superior da conexão SATA. É o que há de mais avançado em desempenho para unidades eletromecânicas.

Unidade de Estado Sólido (SSD)

SSD é um dispositivo de armazenamento que utiliza conjuntos de circuito integrado como memória para armazenar dados de forma persistente. A tecnologia SSD utiliza interfaces eletrônicas compatíveis com unidades de disco rígido de entrada/saída (E/S) de bloco tradicionais. Os SSD não utilizam nenhum componente mecânico de movimentação, o que os distingue dos discos magnéticos tradicionais, como as unidades de disco rígido, que são dispositivos eletromecânicos que contêm discos que giram e cabeçotes de leitura/gravação móveis. Em comparação com os discos eletromecânicos, os SSD são, normalmente, menos suscetíveis a choques físicos, são silenciosos e requerem menos tempo de acesso e latência. Em geral, devido a esses recursos, as unidades SSD podem ser a E/S mais rápida no mercado hoje no formato padrão de disco rígido.

RAID

RAID é a sigla para Redundant Array of Independent Disks ou, em tradução livre, algo como “Matriz Redundante de Discos Independentes”. Trata-se, basicamente, de uma solução computacional que combina vários discos rígidos (HD) para formar uma única unidade lógica de armazenamento de dados.

E o que é unidade lógica? Em poucas palavras, no que se refere a RAID, trata-se de fazer com que o sistema operacional enxergue o conjunto de HD como uma única unidade de armazenamento, independentemente da quantidade de dispositivos que estiver em uso. Hoje, além de HD, é possível montar sistemas RAID baseados em SSD.

Fazer com que várias unidades de armazenamento trabalhem em conjunto resulta em muitas possibilidades:

Níveis de RAID

Para que um sistema RAID seja criado, é necessário utilizar, pelo menos, dois HD (ou SSD). Entretanto, não é só isso: é necessário também definir o nível de RAID do sistema. Cada nível possui características distintas justamente para atender às mais variadas necessidades. A seguir, os níveis mais comuns:

RAID 0 (zero)

Também conhecido como “striping” (fracionamento), o nível RAID 0 é aquele em que os dados são divididos em pequenos segmentos e distribuídos entre os discos. Trata-se de um nível que não oferece proteção contra falhas, já que nele não existe redundância. Isso significa que uma falha em qualquer um dos discos pode ocasionar perda de informações para o sistema todo, especialmente porque “pedaços” do mesmo arquivo podem ficar armazenados em discos diferentes.

O foco do RAID 0 acaba sendo o desempenho, uma vez que o sistema praticamente soma a velocidade de transmissão de dados de cada unidade. Assim, pelo menos teoricamente, quanto mais discos houver no sistema, maior é a sua taxa de transferência. Não é difícil entender o porquê: como os dados são divididos, cada parte de um arquivo é gravada em unidades diferentes ao mesmo tempo. Se esse processo acontecesse apenas em um único HD, a gravação seria uma pouco mais lenta, já que teria que ser feita sequencialmente.

Por ter essas características, o RAID 0 é muito utilizado em aplicações que lidam com grandes volumes de dados e não podem apresentar lentidão, como tratamento de imagens e edição de vídeos.

RAID 1

O RAID 1 é, provavelmente, o modelo mais conhecido. Nele, uma unidade “duplica” a outra, isto é, faz uma “cópia” da primeira, razão pela qual o nível também é conhecido como “mirroring” (espelhamento). Com isso, se o disco principal falhar, os dados podem ser recuperados imediatamente porque existe cópias no outro.

Perceba que, por conta desta característica, sistemas RAID 1 devem funcionar em pares, de forma que uma unidade sempre tenha um “clone”. Na prática, isso significa que um sistema RAID composto por dois HD com 500 GB cada terá justamente essa capacidade, em vez de 1 TB.

O nível RAID 1 é claramente focado na proteção dos dados, ou seja, não torna o acesso mais rápido. Na verdade, pode até ocorrer uma ligeira perda de desempenho, uma vez que o processo de gravação acaba tendo que acontecer duas vezes, uma em cada unidade.

É importante observar, no entanto, que o uso de RAID 1 não dispensa soluções de backup. Como a duplicação dos dados é feita praticamente em tempo real, significa que, se uma informação indevida for gravada na primeira unidade (como um vírus) ou se um arquivo importante for apagado por engano, o mesmo acontecerá no segundo disco. Por isso, RAID 1 se mostra mais adequado para proteger o sistema de falhas “físicas” das unidades.

RAID 0+1 e RAID 10

Tal como você já deve ter imaginado, o nível RAID 0+1 é um sistema “híbrido” (hybrid RAID), ou seja, que combina RAID 0 com RAID 1. Para isso, o sistema precisa ter, pelo menos, quatro unidades de armazenamento, duas para cada nível. Assim, tem-se uma solução RAID que considera tanto o aspecto do desempenho quanto o da redundância.

Há uma variação chamada RAID 10 (ou RAID 1+0) de funcionamento semelhante. A diferença essencial é que, no RAID 0+1, o sistema se transforma em RAID 0 em caso de falha; no RAID 1+0, o sistema assume o nível RAID 1.

RAID 5

O RAID 5 é outro nível bastante conhecido. Nele, o aspecto da redundância também é considerado, mas de maneira diferente: em vez de existir uma unidade de armazenamento inteira como réplica, os próprios discos servem de proteção. Desse modo, pode-se inclusive montar o sistema com quantidade ímpar de unidades. No entanto, como isso é possível? Com o uso de um esquema de paridade.

Nesse método de proteção, os dados são divididos em pequenos blocos. Cada um deles recebe um bit adicional – o bit de paridade – de acordo com a seguinte regra: se a quantidade de bits ‘1’ do bloco for par, seu bit de paridade é ‘0’; se a quantidade de bits ‘1’ for ímpar, o bit de paridade é ‘1’.

As informações de paridade – assim como os próprios dados – são distribuídas entre todos os discos do sistema. Via de regra, o espaço destinado à paridade é equivalente ao tamanho de um dos discos. Assim, um “array” formado por três HD de 500 GB terá 1 TB para armazenamento e 500 GB para paridade.

A partir daí, se em uma tarefa de verificação o sistema constatar, por exemplo, que o bit de paridade de um bloco é ‘1’, mas ali há uma quantidade par de bits, percebe que há um erro. Se houver apenas um bit com problema e se o sistema conseguir identificá-lo, conseguirá substituí-lo imediatamente. A restauração dos dados poderá ser feita inclusive depois de o HD ter sido trocado.

Como exemplo, imagine um bloco de dados com os bits ‘110X’ e paridade ‘1’. O X indica um bit perdido, mas será que ele é ‘0’ ou ‘1’? Como a paridade é ‘1’, significa que o bloco é composto por quantidade ímpar de bits ‘1’. Logo, se X fosse ‘0’, a paridade também deveria ser ‘0’, pois ali existiria quantidade par de bits ‘1’. Isso significa que o bit X só pode ser ‘1’.

Durante a substituição, é possível manter o sistema em funcionamento, principalmente com o uso de equipamentos que suportam “hot-swaping”, ou seja, a troca de componentes sem necessidade de desligamento do computador. Isso é possível porque os dados são distribuídos entre todos os discos. Caso um falhe, o esquema de paridade permite recuperar os dados a partir das informações existentes nas demais unidades.

RAID 6

O RAID 5 é uma opção bastante interessante para sistemas que precisam aliar redundância com custos (relativamente) baixos, mas tem uma limitação considerável: consegue proteger o sistema se apenas um disco apresentar falha.

Uma maneira de lidar com isso é acrescentando um recurso de nome “hot-spare” ao sistema. Trata-se de um esquema em que um ou mais discos são acrescentados para ficar de reserva, entrando em ação tão logo uma unidade apresente problemas.

Uma alternativa interessante é o uso de RAID 6. Trata-se de uma especificação mais recente e parecida com o RAID 5, mas com uma importante diferença: trabalha com dois bits de paridade. Com isso, é possível oferecer redundância para até dois HD no sistema, em vez de apenas um.

JBOD (“Just a Bunch Of Disks”)

Quando o assunto é RAID, você também pode ouvir falar de JBOD, sigla para “Just a Bunch Of Disks” (algo como “Apenas um Conjunto de Discos”). Não se trata de um nível de RAID, mas, sim, de um método que simplesmente permite o uso em conjunto de dois ou mais HD (independentemente de sua capacidade), de forma a fazer com que o sistema operacional enxergue o arranjo como uma única unidade lógica.

De fato, JBOD é semelhante ao RAID, mas não possui foco em desempenho ou redundância, considerando apenas o aumento da capacidade de armazenamento. Aqui, os dados são simplesmente gravados; e, quando um disco fica lotado, a operação continua no outro. Dessa forma, se um HD sofrer danos, os dados existentes nos demais não são prejudicados.

Implementação de RAID

Antigamente, montar sistemas RAID não era uma tarefa das mais simples, e seu uso normalmente se limitava a servidores. Hoje, no entanto, é possível implementá-los até mesmo em computadores pessoais, mesmo porque praticamente qualquer sistema operacional moderno (Windows, Linux, Mac OS X, entre outros) suporta esse recurso.

A maneira mais fácil de fazer isso é adquirindo uma placa-mãe que conta com uma controladora RAID. Em poucas palavras, esse dispositivo, que pode funcionar com interfaces PATA, SATA ou SCSI, identifica as unidades de armazenamento conectadas e as fazem trabalhar como um sistema RAID. Sua configuração geralmente é feita a partir do setup do BIOS, embora algum software de controle possa ser fornecido para funcionar no sistema operacional.

Um sistema RAID também pode ser implementado via software, sem a necessidade de controladoras. Nesses casos, o gerenciamento todo é feito a partir do sistema operacional, portanto, é necessário contar com uma boa configuração de hardware para que o computador não fique sobrecarregado.

Interfaces de Rede

A interface de rede é o canal de comunicação de seu servidor com o mundo externo, é por ela que os dados vão transitar entre os diversos pontos. Neste ponto, quanto mais rápido melhor.

Os padrões básicos de comunicação são:

A escolha da sua interface de rede deve obedecer sempre a seu componente central de rede de forma a estar alinhado com sua velocidade e tecnologia ou alinhado com sua estratégia de crescimento próxima.

A rede gigabit (1 gigabit/segundo) apresenta um conjunto importante de tecnologia para que sejam verificados no momento da escolha:

É a tecnologia mais viável, caso a rede possua menos de 100 metros, pois ela utiliza os mesmos tipos de cabos “par-trançado” categoria 5 (CAT5) ou 6 que as redes de 100 Mb/s atuais. Além de não necessitar da compra de cabos, não são necessários ajustes maiores para suportar esta tecnologia, e com a utilização de “switches” compatíveis a essa tecnologia, podem ser combinados nós de 10, 100 e 1000 megabits, sem que os mais lentos atrapalhem no desempenho dos mais rápidos.

No entanto, também há o problema da resistência dos cabos de par-trançado. Eles são muito frágeis, tendo por vários motivos a perda de desempenho; e como a taxa de transmissão é maior, o índice de pacotes perdidos acaba sendo muito maior que nas redes de 100 megabits.

No Padrão 1000baseT, o número de pares de cabos usados difere dos demais utilizados em padrões anteriores, ele utiliza os quatro pares disponíveis no par trançado, por este motivo que ele consegue transmitir a 1000 mbps diferente das demais que utilizam somente dois pares desse cabo.

O padrão 1000BASE-TX (TIA/EIA-854) utiliza cabos CAT6 ou superiores, utilizando apenas dois dos quatro pares do cabo. O objetivo desse padrão é ser de implementação mais simples, mas tem a desvantagem de exigir a troca do cabeamento CAT5/CAT5e antigo. Por esse motivo, o padrão não foi bem aceito pelo mercado, ainda mais quando os adaptadores de rede 1000BASE-T se tornaram mais baratos e disponíveis.

1000baseCX é o padrão inicial para Gigabit Ethernet sobre fio de cobre com alcance de até, no máximo, 25 metros. Nela o cabeamento é feito com cabos STP (Shielded Twisted Pair ou Par Trançado Blindado).

Ainda é usado para aplicações específicas em que o cabeamento não é feito por usuários comuns, por exemplo, o IBM BladeCenter usa 1000BASE-CX para conexão ethernet entre os servidores blade e os módulos de comutação.

O preço dos modems e cabos do padrão 1000baseCX são menores, mas menos usuais, devido à curta distância por ele atingida.

Nesta tecnologia entra o uso de fibras ópticas nas redes, e é recomendada nas redes de até 550 metros. Ela possui a mesma tecnologia utilizada nos CD-ROM, por isso é mais barata que a tecnologia 1000baseLX, outro padrão que utiliza fibras ópticas.

Ela possui quatro padrões de lasers. Com lasers de 50 mícrons e frequência de 500 MHz, o padrão mais caro, o sinal é capaz de percorrer os mesmos 550 metros dos padrões mais baratos do 1000BaseLX. O segundo padrão também utiliza lasers de 50 mícrons, mas a frequência cai para 400 MHz; e a distância, para apenas 500 metros. Os outros dois padrões utilizam lasers de 62,5 mícrons e frequências de 200 e 160 MHz, por isso são capazes de atingir apenas 275 e 220 metros respectivamente.

Pode utilizar fibras do tipo monomodo e multimodo, sendo a mais comum a multimodo (mais barata e de menor alcance).

Esta é uma tecnologia mais cara, pois atinge as maiores distâncias. Ela é capaz de atingir até 5km utilizando fibras ópticas com cabos de 9 mícrons. Para distâncias maiores que 5km, interfaces 1000BASE-EX poderão ser consideradas.

Caso utilizem-se nela cabos com núcleo de 50 ou 62,5 mícrons, com frequências de, respectivamente, 400 e 500 MHz, que são os padrões mais baratos nesta tecnologia, o sinal alcança somente até 550 metros, compensando mais o uso da tecnologia 1000baseSX, que alcança a mesma distância e é mais barata.

Todos os padrões citados acima são compatíveis entre si, a partir da camada Data Link do modelo OSI. Abaixo da camada Data Link, fica apenas a camada física da rede, que inclui o tipo de cabo e o tipo de modulação usada para transmitir os dados por meio deles.

A tecnologia 1000baseLX é utilizada com fibra do tipo monomodo, por esse motivo, ela pode alcançar uma maior distância, em comparação com o padrão 1000baseSX.

Software

Equipamentos como servidores normalmente vêm com pacotes de software para apoio e monitoramento, esse tipo de software pode ser um diferencial para gestão dos seus ativos. Contudo, verifique se não está criando um ambiente totalmente heterogêneo e inadministrável, pois o excesso de ferramentas pode fazer com que, na prática, nada seja monitorado. Inicie sempre pelas práticas do ITIL e monte um CMDB do seu ambiente.

CMDB

CMDB é um Acrônimo para “Configuration Management Database”. Ele é um banco de dados que contém todas as informações relevantes sobre os componentes do sistema de informação utilizado em serviços de TI de uma organização e as relações entre esses componentes.

O CMDB oferece uma visão organizada de dados e um meio de analisá-los a partir de qualquer perspectiva desejada. A partir dessa perspectiva, os componentes de um sistema de informação são referidos como itens de configuração, que podem ser qualquer componente de TI concebível, incluindo: software, hardware, documentação pessoal ou qualquer combinação deles. Os processos de gerenciamento de configuração procuram especificar, controlar e rastrear itens de configuração e todas as mudanças feitas a eles de uma forma abrangente e sistemática. Entenda mais sobre:

No mundo legado, o banco de dados de gerenciamento de configuração (CMDB) é, muitas vezes, visto como um mal necessário. Projetos de CMDB têm uma reputação de repetidas falhas, longas implementações e os desafios contínuos de manutenção que resultam em valor de negócios limitado e muito trabalho ingrato.

No entanto, o CMDB permite traçar toda a infraestrutura de TI. Trata-se de introduzir todos os componentes físicos e não físicos do ambiente de TI para o CMDB, como itens de configuração, e, em seguida, a criação de relações entre cada um dos componentes. Ao manter o CMDB up-to-date, pode-se facilmente ver um mapa completo da rede a partir da perspectiva de um único componente. Isso torna mais fácil a previsão do impacto de falhas de componentes e contribui para construir planos de recuperação de desastres. Também é possível ver o que está em jogo toda vez que um problema é relatado dentro da rede.

As quatro principais tarefas do Gerenciamento da Configuração

De acordo com o padrão de TI Infrastructure Library (ITIL), as quatro principais tarefas de gerenciamento de configuração são:

Garantia e Rede de Serviço

Esse é um ponto de grande atenção ao processo, a garantia de um equipamento de grande porte, como servidores, pois, diferentemente de uma estação de trabalho, que no caso de um defeito pode prejudicar uma pessoa no seu trabalho, um servidor pode parar toda uma operação e essa operação pode ser muito crítica para a organização.

Neste caso, quando pensamos em garantia, é fundamental pensar em tempo de solução, e não de atendimento, em atendimento fora do horário do expediente e em garantia 24 horas, 7 dias por semana.

Para servidores de grande porte, é comum que o fabricante utilize software de monitoramento do equipamento, para que ele identifique fadiga de equipamento mesmo antes que ocorra a falha. Essa prática é muito bem-vinda para ambientes que requerem uma disponibilidade mais alta, mas não há redundância melhor do que ter um plano de contingência pronto e conhecido por todos para entrar em ação.

Pontos de Atenção para o Edital

A escolha de aquisição de servidor é sempre um jogo de xadrez. Normalmente, são várias peças para se encaixar em um único tabuleiro. Como estamos falando de um equipamento que é mais caro, por definição, esse jogo deve ser jogado com atenção. Nesse momento, vale uma boa conversa com o time técnico, para saber bem o que podemos fazer para melhor se utilizar dos recursos. Vale lembrar que um servidor normalmente vai ter vida útil de aproximadamente 4 anos, então o que pode parecer um exagero para a data atual, pode ser pouco recurso para daqui a 4 anos, especialmente no que diz respeito à memória.

A quantidade de especificações adicionais para um servidor é interminável. No fim das contas, todas podem ser questionáveis, pois podem ser entendidas que se tratam de itens para direcionamento para fornecedor A ou fornecedor B. Fique focado em fatores de continuidade, como fontes redundantes, discos redundantes e outros fatores que mantenham seu servidor ligado o maior tempo possível; e, é claro, não adianta ter um servidor com a maior disponibilidade existente se ele não tiver fornecimento de eletricidade e refrigeração adequadamente.

Switchs de Rede

Um switch de rede ou somente switch é um equipamento de rede que permite interconectar dispositivos em uma rede de computadores, usando comutação de pacotes para receber, processar e encaminhar dados ao dispositivo de destino.

O switch permite a conexão de dispositivos por meio de suas portas. É possível encontrar switches com a partir de 4 portas até 48 (ou mais em alguns modelos especiais), operando em velocidades que podem variar entre Fast Ethernet (100 Mbps) e 10 Gbps (ou mesmo maior, em modelos muito especializados). É possível também associar alguns modelos de switches para permitir a conexão de mais dispositivos a um mesmo segmento de rede, com maior número de portas.

O que fazem

Os switches utilizam os endereços de hardware (MAC Addresses) para processar e encaminhar dados na camada de enlace (nível 2 no modelo OSI), e alguns modelos de switch também conseguem processar dados no nível 3 (camada de rede), incorporando assim algumas funcionalidades de roteamento. Um switch que pode operar em mais de uma camada é chamado de Switch Multilayer.

Há até mesmo switches de camada 4 e camada 7 disponíveis no mercado.

Os switches gerenciam o fluxo de dados através de uma rede, transmitindo uma mensagem recebida apenas para um ou mais dispositivos para os quais a mensagem foi enviada. Cada dispositivo de rede conectado a um switch pode ser identificado usando um número de endereço MAC (endereço físico), permitindo assim que o switch controle o fluxo de tráfego. Assim, é possível obter o máximo de eficiência e segurança na rede.

Um switch ainda pode transmitir pacotes para toda a rede, quando uma mensagem é enviada em para todos os pontos de rede ao mesmo tempo, também conhecida como broadcast, por exemplo. Por conta disso, o segmento de rede formado pelos dispositivos conectados a um switch é considerado ainda um “Domínio de Broadcast”. Porém, um “Domínio de Colisão” é criado em cada porta do switch, o que elimina os problemas de colisão de dados que ocorriam ao se usar hubs.

Muitos switches permitem a conexão de diferentes tipos de redes, geralmente por meio do uso de interfaces modulares, como, por exemplo, Ethernet, Fibre Channel, ATM e outras.

Modelo OSI

Lançado em 1984 pela Organização Internacional para a Normalização (em inglês International Organization for Standardization – ISO), o Modelo OSI (em inglês Open Systems Interconnection) tem como principal objetivo ser um padrão para protocolos de comunicação entre diversos tipos de sistema, garantindo a comunicação end-to-end.

Trata-se de uma arquitetura modelo que divide as redes de computadores em 7 camadas para obter camadas de abstração. Cada protocolo realiza a inserção de uma funcionalidade assinalada a uma camada específica.

Utilizando o Modelo OSI, é possível realizar comunicação entre máquinas distintas e definir diretivas genéricas para a elaboração de redes de computadores independentemente da tecnologia utilizada, sejam essas redes de curta, média ou longa distância.

Existe uma vasta documentação de referência a respeito desse modelo.

 

 

Acima, uma relação das camadas e sua aplicação teórica.

Funcionamento de um Switch

O switch encaminha os pacotes para o dispositivo ou grupo de dispositivos de destino, em vez de simplesmente encaminhar os pacotes para todos os nós da rede, como ocorria com os hubs, que eram dispositivos com, basicamente, a mesma função dos switches, porém sem muitas de suas capacidades. Para isso, ele tem a capacidade de aprender os endereços físicos dos dispositivos a ele conectados, e armazenar essa informação para uso posterior, associando os endereços físicos às portas nas quais esses dispositivos estão conectados.

Uma vez que o switch tenha aprendido os endereços físicos dos dispositivos a ele conectados, ele irá encaminhar os quadros da camada de enlace de dados usando um método de encaminhamento específico. Existem quatro métodos de encaminhamento que um switch pode usar:

Quem atua em projetos de TI e redes já escutou muito esses termos: switches core, switches de distribuição e switches de borda, porém raramente um fabricante de switch aponta um modelo como de borda ou outro como core. No máximo, eles descrevem um determinado modelo como “apropriado para aplicações de borda e distribuição”, ou então “um switch core para pequenas redes que pode ser um de borda/distribuição para grandes redes”. Então o que diferencia cada um desses três tipos?

Na verdade, não existe uma linha de separação entre esses três conceitos. É quase como tentar diferenciar uma picape de um caminhão. Um veículo aberto de transporte de carga pequeno é uma picape, já um veículo de carga grande é um caminhão, mas é difícil de dizer quando um veículo médio é picape ou caminhão. Outros fatores acabam entrando em jogo, como conforto, design etc.

Switch de Core

Um switch de core é um switch central, por isso normalmente tem grande capacidade de comutação de pacotes e portas de alta velocidade (tipicamente 1Gbp e 10Gbps ou mais). Entretanto, e se eu tiver uma rede de 12 computadores, com apenas um switch de 24 portas 100Mbps? Então esse é o switch de core da minha rede. Não existe outro!

Esse tipo de configuração é comum em redes pequenas, de algumas poucas dezenas de equipamentos.

Switch de Borda

E em uma rede maior, em que temos um switch central (às vezes, com alguns desktops conectados diretamente nele) e alguns switches em outros pontos da rede ligados a esse switch? Nesse caso, esse switch central – obviamente – continua sendo chamado de switch de core, e os switches mais distantes são os switches de borda ou também chamados de switches de acesso.

Normalmente, nesse caso, os desktops, impressoras, telefones IP, câmeras IP etc. ficam conectados nesses switches de boda, e os servidores, roteadores (inclusive acesso Internet) ficam conectados no switch de core.

Esse é um tipo de rede média, em que chegamos a algumas centenas de equipamentos.

Switch de Distribuição

Agora quando a rede é muito grande, talvez seja necessário adicionar mais uma camada de switches. Por exemplo, em projeto no qual temos uma grande quantidade de switches de borda pode ficar complicado e caro conectar todos eles ao switch central. Imagine uma rede com milhares de equipamentos conectados a uma centena de switches de borda. Teríamos que ter um switch de core com centenas de portas.

Nesse caso, colocamos switches intermediários, que vamos batizar de switches de distribuição. Podemos então pegar como exemplo a seguinte rede:

1 switch de core com 48 portas Gigabit e 4 portas 10Gbp.

5 switches de distribuição, com 24 portas Gigabit.

50 switches de borda, com 24 portas Gigabit.

Nesse caso, cada grupo de 10 switches de borda estaria ligado a um switch de distribuição; e cada switch de distribuição teria conexão com o switch central. Isso reduz a quantidade de cabos e ajuda a simplificar a rede.

Neste momento, contudo, alguém pode se preocupar com fato de que cada switch de distribuição vai tomar conta de centenas de portas gigabit nas bordas. Isso não vai criar um gargalo? Depende, tudo isso precisa ser analisado, e o tráfego na rede precisa ser dimensionado.

Podemos, por exemplo, pensar em conectar mais de uma porta gigabit entre cada switch de distribuição e o core (trunking). Podemos usar portas 10Gbps nessas conexões também etc. Todavia, normalmente os usuários de borda têm picos curtos de tráfego; e, assim, raramente ocorre que vários usuários usem pesadamente a rede ao mesmo tempo.

No entanto, existem casos em que sabemos que alguns usuários vão demandar muito tráfego, então nada impede que se faça uma rede mista: a maioria dos usuários fica conectada aos switches de borda, que são ligados aos switches de distribuição. Porém, esses usuários “power” são conectados diretamente a um switch de distribuição (ou diretamente no switch de core).

Notas Adicionais

Algumas informações úteis adicionais:

Pontos de Atenção para o Edital

A aquisição de switchs pode parecer uma tarefa trivial, mas não é. Pense por esse prisma: se uma estação de trabalho parar, afetaremos um usuário da rede; se um servidor parar, afetaremos todos os usuários de um determinado serviço; se um switch parar, quantos usuários estamos impactando? Se for um de borda, pelo menos um andar. E se for um core? Paramos a rede inteira da SES e o Secretário de Saúde dá descanso para todos os funcionários? Outro ponto importante na parte de rede são suas integrações, especialmente para os switchs core. Já para os switchs de distribuição, que tem portas de comunicação de fibra ótica, existe toda uma especificidade tecnológica de tipo de cabo (verifique a sessão de cabeamento abaixo). Além disso há a necessidade de um componente extra chamado gbic (gigabit interface converter), que precisa ser comprado separadamente.

Outro ponto bastante importante é a quantidade de VLAN (é uma rede logicamente independente, criando um isolamento lógico) que seu switch pode suportar. Isolar o trânsito de rede é um recurso bastante importante, pois, criando domínios de broadcast separados, além de organizar melhor a rede, se ocorrer algum problema em uma delas, isso não vai atrapalhar a outra.

Vale observar que um bom projeto de rede deve prever caminhos alternativos, para que no caso de acidentes com uma das linhas de transmissão física, haja sempre caminhos de contingência. Essa parte não está diretamente ligada com o switch, mas a existência de caminhos alternativos pode consumir mais portas de interligação que devem sempre estar sendo pensadas em seu projeto de conectividade.

Redes sem Fio

A tendência do ambiente corporativo atual é apostar cada vez mais na rede sem fio, que é mais simples de instalar, além de fornecer liberdade e conectividade. Porém, é importante pensar bem sobre a infraestrutura necessária para evitar imprevistos e problemas de segurança.

A primeira coisa a saber é que a implementação do wireless varia conforme o tamanho da instituição e as operações que ela executa. Assim, é possível assegurar um bom funcionamento organizacional, que preveja uma boa conexão para transferir arquivos com agilidade e garantir flexibilidade de armazenamento.

A rede sem fio para o ambiente corporativo

A conexão wireless é uma forma simples de manter os colaboradores conectados o tempo todo. Essa infraestrutura de redes físicas facilita a rotina organizacional, porque simplifica a integração entre todos os funcionários.

Entretanto, o que ela realmente significa? Na infraestrutura de computadores, é quando uma mesma rede reúne diferentes dispositivos por meio de um ponto de acesso (AP – Access Point), a exemplo de um roteador. Por isso, esse é o requisito mínimo para a construção desse sistema.

Além disso, o AP e os colaboradores devem ter os seus equipamentos configurados para que o mesmo nome de rede (SSID) seja utilizado. O ponto de acesso é conectado por meio de fio para garantir que os usuários acessem à internet ou a outros recursos, como impressoras. Ainda pode haver o complemento de mais AP para aumentar o alcance da rede empresarial e oferecer um suporte maior.

Nesse momento, é importante fazer a diferenciação da conexão wireless para as redes sem fio ad hoc. Esse modelo de que estamos tratando traz mais escalabilidade, aumento de alcance e gestão de segurança centralizada.

Por exemplo: os dispositivos sem fio podem se conectar a uma LAN operante de outro modo. Mais AP também podem ser agregados. A implementação é permanente e duradoura, diferentemente da rede ad hoc, que costuma ser de curta duração.

Os principais itens para conquistar esse objetivo são os que listamos a seguir.

Roteador

A contratação do provedor de internet e o fornecimento do modem, que costuma ser oferecido, permitem ativar o acesso à internet pelo computador. O roteador é o aparelho que distribui o sinal e, portanto, é o item que assegura a possibilidade da conexão wireless.

O cuidado em relação a esse aspecto é mudar a senha padrão que vem com o dispositivo. Esse é um dos passos mais importantes para garantir que a infraestrutura de rede se mantenha segura. Afinal, uma pesquisa publicada em um site de segurança demonstra que 49% dos gestores acreditam que a rede empresarial sem fio é o aspecto de maior vulnerabilidade.

Vale a pena também desativar o protocolo WPS, que facilita a conexão de dispositivos periféricos, como impressoras e smartphones, sem a necessidade de senha. Assim, se alguém mal-intencionado tentar acessar a rede, terá mais dificuldade.

Lembre-se também de posicionar o roteador em um local central e longe de possíveis obstáculos, como portas, mobílias e alguns aparelhos, como telefones sem fio, micro-ondas e alarmes.

Site Survey

Esse item é como um roteiro para implementar uma rede ideal. A partir dele, é possível fazer um levantamento para verificar se a instalação tem chances de ser bem-sucedida ou se há possíveis interferências e pontos negativos para a cobertura.

Perceba que a quantidade de locais de instalação de roteadores, a densidade de usuários e o layout do edifício são aspectos essenciais para conceber uma infraestrutura de rede eficiente.

Componentes Físicos

O ambiente físico impacta diretamente as soluções a serem instaladas. Grandes quantidades de poeira, vibrações pesadas e ampla densidade de partículas no ar – caso de um setor de armazenagem ou fabril, por exemplo – exigem um planejamento diferenciado.

Paredes espessas, elementos metálicos e alguns equipamentos, como os de radiologia, também podem causar conflito com o sinal e gerar interferências. Por isso, é preciso analisar a necessidade de um reforço para resistir a esses problemas.

Aplicações

Os aplicativos utilizados, independentemente de serem de vídeo, dados ou voz, influenciam na largura de banda e podem requerer mais espaço. Esse quesito deve ser considerado para definir qual contexto é viável para as demandas organizacionais.

Softwares de gestão de rede sem fio

Essas soluções contribuem para o planejamento e para a configuração da conexão wireless, porque fornecem relatórios de estatística de uso e identificam AP não autorizados. Outro benefício é o gerenciamento centralizado.

Firewall

Esse é um software ou dispositivo que controla as conexões e bloqueia acessos a sites de baixo nível de confiabilidade. Outra responsabilidade é o rastreio de solicitações inseguras provenientes de agentes externos. Assim, é possível impedir que usuários se conectem a recursos da rede corporativa.

O firewall pode ser configurado diretamente no roteador ou no modem, com um equipamento próprio ou no sistema operacional.

Filtro de MAC Address

Esse recurso reconhece cada aparelho que se conecta à rede a partir de um número hexadecimal único, que é conferido à placa de rede no processo de fabricação. Essa é outra ferramenta para evitar acessos não autorizados.

Todos esses aspectos são fundamentais para garantir um acesso wireless limpo e sem interferências. Eles também garantem a segurança da conexão para que a implantação seja racionalizada, ou seja, mais bem planejada para evitar custos desnecessários com novos projetos, que requerem a contratação de profissional técnico ou a aquisição de outros equipamentos.

Então, lembre-se sempre dos requisitos que apresentamos para construir a sua rede sem fio. Ao garantir as melhores práticas de implementação, você mantém o acesso aos seus colaboradores, a produtividade da equipe e a segurança, inclusive se a sua empresa adotar o BYOD. O resultado é deixar a infraestrutura de computadores menos vulnerável a ataques maliciosos.

BYOD

BYOD, que é um acrônimo para Bring Your Own Device, é um novo modelo em que o funcionário não mais recebe o dispositivo móvel da empresa, ele recebe um incentivo financeiro para que ele adquira um novo dispositivo móvel, de seu gosto e agrado, e esse dispositivo móvel passará a ser parte integrante de seu dia de trabalho. Foi constatado que quando o dispositivo móvel é do agrado e da escolha do funcionário, ele tem mais cuidado e entende que aquele dispositivo é seu, passando a ter mais zelo e trato por ele.

Pontos de Atenção para o Edital

Se há algo que vai crescer, e muito, é o potencial das redes sem fio. Junto com seu crescimento, vem também uma ameaça constante em seu uso. Seu crescimento não vai se dar somente no tamanho, mas também no número de dispositivos conectados a essa rede. Ela será cada vez maior, fazendo com que você possa rapidamente chegar ao limite dos seus AP rapidamente.

Esse crescimento está muito ligado à mobilidade, uma característica normal do ser humano; e com a facilidade de encontrar pontos elétricos e com a dificuldade de encontrar pontos de rede, cada vez mais encontrará editais no mercado que vão prever estações de trabalho que já venham com interfaces de rede híbridas, para cabos de rede e redes sem fio.

As redes sem fio são hoje mais lentas que as redes cabeadas, mas essa percepção é pouco nítida para os usuários, pois apenas em casos de transferências grandes de dados ela pode ser percebida, então mais fará sentido para ele pensar e preferir a rede sem fio. Outro ponto importante é pensar que, para ponto de rede cabeada para a estação de trabalho, ele pode precisar de um ou dois pontos para o telefone, outro para o tablet, outro para o notebook e assim vai. Até mesmo os televisores e projetores agora já vêm com a implementação do protocolo Wi-Fi embutido, permitindo que se conectem diretamente na rede.

Uma observação importante: a rede sem fio não nasce sem fio, ela precisa de toda uma estrutura cabeada, que leva os pontos de rede aos AP. Essa estrutura pode ser a chave para o sucesso: se essa estrutura for degradada ou subdimensionada, pouco adiantará equipamento de rede sem fio de última geração, você sempre estará limitado pelo menor limite de banda de todo seu sistema de rede.

Projetos de Rede

A integração entre sistemas é cada vez mais um padrão a ser utilizado. O conceito de prédio inteligente já é uma realidade em quase todas as construções prediais da atualidade. Esse conceito de integração entre sistemas possibilita controle e acesso a informações em todos os perímetros da construção. Hoje um projeto de rede é mais do que pensar em passar cabos de um lado para outro, um projeto de rede é pensar como deixar uma infraestrutura em algo inteligente e garantir segurança (em todos os sentidos).

Como, por exemplo, temos linhas telefônicas controladas por sistemas digitais, eletricidade gerenciada por computadores e sensores, sistemas de segurança unificados por uma estrutura de rede que abrange todo o prédio.

As vantagens que esse tipo de rede proporciona são enormes: maior segurança, menores gastos com recursos de prestadores de serviço, informações fáceis e simultâneas para todos ocupantes. Porém, não podemos esquecer que isso implica algumas desvantagens que, se não pensadas em sua construção, podem trazer vários tipos de problemas e gastos.

Uma rede unificada proporciona também a possibilidade de que uma única falha possa comprometer vários serviços que estejam totalmente integrados. Essa única falha no controle da rede pode colocar em risco o fornecimento de energia elétrica, telefonia e deixar usuários irritados. Sem contar que, em alguns prédios, esses tipos de serviços nunca podem parar, como em um hospital por exemplo.

Por essa razão, esse único sistema tem que ser muito bem planejado, para que as falhas possam ser evitadas ou facilmente consertadas. Criar uma rede confiável, segura, com multifuncionalidades, que suporte evoluções tecnológicas, tenha flexibilidade para mudanças de topologia, alta disponibilidade, baixo custo de instalação e manutenção simplificada, não é uma tarefa simples.

Para construir um sistema de cabeamento, é necessário ter, primeiramente, profissionais capacitados, em seguida, um planejamento adequado, documentação de toda a estrutura e, principalmente, um projeto. Então, não podemos mais integrar sistemas apenas acrescentando mais cabos e unificando estruturas.

A integração é um dos pontos essenciais da infraestrutura de cabeamento estruturado, porém não é o único ponto que deve ser considerado. A garantia da qualidade é o objetivo principal de todo projetista, que passará a ter outros desafios, como encontrar uma solução que satisfaça todos os padrões estabelecidos, seja flexível, confiável, segura, tenha um alto desempenho e, principalmente, economicamente viável.

A ele será cobrada a responsabilidade de ter soluções antecipadas dos possíveis problemas, como dificuldade de expansão das instalações, falhas frequentes, alto custo de manutenção, comprometimento das aplicações e longos períodos de manutenções e recuperações da rede.

Não é incomum, portanto, haver uma licitação inicial para o projeto de rede e outra para a execução do projeto. Isso gasta mais tempo, contudo garante uma visão ampla de como podemos chegar ao máximo possível para utilização daquela infraestrutura.

Cabeamento

Você sabia que o padrão de cabos que você usa pode influenciar na velocidade da sua rede? Calma, não estamos dizendo que você poderá navegar mais rápido na internet, mas, sim, que você poderá transferir arquivos entre computadores em uma velocidade um pouco maior, dependendo das circunstâncias.

Embora pareçam similares, existem diferenças de padrões entre os cabos de rede que, em alguns casos, podem influenciar de alguma forma na qualidade de transferência de dados. Entretanto, tenha em mente que, caso você utilize um cabeamento com uma distância inferior a cinco metros, o ganho ou perda de velocidade serão pouco significativos.

Basicamente, existem três padrões de cabos: Cat5, Cat5e e Cat6. Conheça um pouco mais sobre eles:

Cat5: mais antigo e mais lento

Teoricamente, os cabos do padrão Cat5 podem suportar velocidades de transferência entre 10 Mbps e 100 Mbps. Entretanto, é possível atingir velocidades acima de 1 Gigabit em distâncias mais curtas, mas tudo vai depender das condições da sua rede. Compatível com as redes mais antigas, ainda hoje ele é capaz de dar conta do recado, em especial para redes domésticas.

Cat5e: mais rápido e com menos interferência

A categoria Cat5e é uma versão melhorada da Cat5. Ela foi feita para suportar velocidades de 1.000 Mbps (ou 1 Gigabit) e, por conta disso, em teoria, é também mais rápida que a sua antecessora. Outra vantagem é a redução de interferência nas transmissões. Na prática, o padrão se mostra mais adequado para velocidades mais rápidas e transmissões mais estáveis.

Cat6: ainda mais rápido, mas nem sempre necessário

A geração seguinte de cabeamentos é conhecida como Cat6, que inclui mais algumas melhorias. O nível de interferência é consideravelmente baixo, e, em alguns casos, o padrão pode suportar velocidades de até 10 Gigabits. Em uma rede doméstica, dificilmente você vai usar todo o potencial, de forma que ela só tem alguma utilidade em locais onde a distância de cabeamento seja superior a 10 metros.

Qual cabo eu devo escolher?

É importante lembrar mais uma vez: a velocidade da sua rede é diferente da velocidade da sua internet. Por conta disso, é possível que uma atualização nos seus cabos não resulte em nenhum benefício real para a sua rede, uma vez que, em pequenas distâncias, comuns nas redes domésticas, essas perdas não são tão perceptíveis.

Entretanto, se o seu propósito é transferência de arquivos entre computadores, usar cabos mais novos, como os do padrão Cat6, pode significar um ganho de velocidade. Porém, vale lembrar que você vai precisar mais do que apenas cabos compatíveis com o formato mais recente. É preciso que o roteador e as placas de rede das máquinas também estejam adaptados a esse padrão.

Por fim, antes de sair trocando os seus cabos velhos por outros mais novos, vale lembrar que essas velocidades são teóricas; e, na prática, a diferença pode ser menor, resultando em uma troca desnecessária, um investimento que não vai trazer o retorno esperado.

Certificação da Rede

Certificação de rede é o processo de comparação do desempenho de transmissão de um sistema de cabeamento instalado com uma norma utilizando um método padrão de medição de desempenho.

Segundo a ANSI/EIA/TIA, a certificação é um teste obrigatório. Consiste em utilizar um equipamento, chamado de cable scanner, cable analyzer ou penta scanner para se testar todos os pontos instalados da rede. Para iniciar o teste, é importante configurar o equipamento para o tipo de cabeamento que vai ser testado, Categoria 5e, Categoria 6, Categoria 6a e assim por diante.

Vários fatores podem influenciar a taxa de transmissão em um cabeamento de rede, como características elétricas do cabo, dobras, conexões malfeitas, interferências elétricas e eletromagnéticas e outras.

O equipamento deverá estar programado para realizar testes exigidos pelas normas ANSI/EIA/TIA ou ISO/IEC que possui valores padrões. À medida que o teste começa, os dados referentes a cada ponto de rede testado são armazenados dentro do equipamento. A impressão desse relatório mostra uma análise detalhada e exibe o status, que pode ser PASSA ou FALHA. O objetivo da certificação é ter 100% de pontos com o status PASSA.

Os técnicos devem diagnosticar os enlaces com falha; e, após a tomada de ações corretivas, eles devem testá-los novamente para assegurar que o enlace atenda ao desempenho requerido de transmissão.

O tempo total para certificar uma instalação não inclui apenas as medições feitas para certificação, mas também a documentação e a resolução das falhas.

A certificação do cabeamento é a garantia de que tudo está funcionando de acordo com as normas técnicas definidas pelos padrões nacionais e internacionais de instalação.

Documentação de Rede

Se tem uma coisa que quase sempre fica para depois é a documentação. Não cometa esse equívoco, especialmente se sua rede for de médio para grande porte. Uma documentação completa, demonstrando todos os caminhos percorridos, é fundamental para uma manutenção futura. Lembre-se que esse tipo de obra normalmente é esquecida por anos, só em casos de expansão ou mudanças mais radicais elas vêm à tona, necessitando de manutenção; e nessa hora haverá a necessidade de saber exatamente por onde passa cada fibra ótica, de que tipo é cada fibra, o que é cada porta do painel de distribuição, as cores padrão dos cabos, tudo isso deve ser documentado.

Observo aqui que a documentação deve compreender tanto o componente físico quanto o componente lógico da rede, seus protocolos e ativos de integração.

Caso já se utilize algum tipo de documentação, deixe claro que o padrão a ser seguido é esse para que consiga ter um único modelo a ser administrado.

Pontos de Atenção para o Edital

Esse tipo de edital deve ser construído em conjunto com o pessoal da administração predial e engenharia. É um tipo de projeto que eventualmente vai alterar estrutura física e que pode, porventura, necessitar de alterar passagens elétricas (rede e eletricidade normal geralmente não são grandes amigas e não compartilham bem o espaço).

A parte estética deve ser pensada, por mais que a funcionalidade seja o ponto final e objetivo. São muito desagradáveis aquelas canaletas elétricas passando no teto, levando feixes de cabo de um lado para o outro. Isso é possível ser feito de forma mais elegante, quando previsto no edital.

A qualidade do material é importante, como também é importante a qualidade do serviço, portanto, há a necessidade de um equilíbrio entre eles. Contudo a etapa de certificação vai garantir que o que está sendo entregue vai atender tecnicamente a sua necessidade. Pode ocorrer que haja uma separação no certame entre a empresa que construirá todo barramento físico e seus enlaces e a empresa que fará os testes de campo para garantia da entrega de forma independente.

Não subestime o poder da documentação, se ela não for útil hoje, tenha certeza de que ela será útil amanhã, e quando precisar, será em uma situação importante.

Instrução Normativa 1, de 4 de abril de 2019

O Ministério da Economia, pela Secretaria de Governo Digital, publicou, no início do mês de abril de 2019, uma Instrução Normativa para os processos de compras de soluções de tecnologia da informação e comunicação – TIC pelos órgãos do executivo do governo federal. Esse documento vem como um grande manual de boas práticas detalhando todo o processo de compras, caracterizando todas as etapas a serem cumpridas para o processo de compras, papéis a serem desempenhados, instancias a serem trabalhadas e etapas a serem cumpridas.

Uma parte em especial gera grande destaque nesse documento, para o qual ainda não se sabe a dimensão e impacto, mas prevê que agora toda a nova infraestrutura deve ser pensada em nuvem. Segue o destaque exatamente como está na normativa:

4. CONTRATAÇÃO DE INFRAESTRUTURA DE CENTRO DE DADOS, SERVIÇOS EM NUVEM, SALA-COFRE E SALA SEGURA:

4.1. Os órgãos e entidades que necessitem criar, ampliar ou renovar infraestrutura de centro de dados deverão fazê-lo por meio da contratação de serviços de computação em nuvem, salvo quando demonstrada a inviabilidade em estudo técnico preliminar da contratação.

4.2. As contratações de serviços em nuvem devem observar o disposto na Instrução Normativa GSI/PR nº 1, de 13 de junho de 2008, e suas Normas Complementares, notadamente a Norma Complementar 14/IN01/DSIC/SCS/GSIPR.

Vale observar que a Secretaria de Governo Digital já havia lançado um documento de boas práticas para contratação de serviços em nuvem, lá vale o seguinte destaque:

8. Os órgãos deverão exigir, por meio de cláusulas contratuais, em conformidade com o disposto na NC 14/IN01/DSIC/GSIPR, que os dados e informações do contratante residam exclusivamente em território nacional, incluindo replicação e cópias de segurança (backups), de modo que o contratante disponha de todas as garantias da legislação brasileira enquanto tomador do serviço e responsável pela guarda das informações armazenadas em nuvem.

Este documento pode ser encontrado em: https://www.governodigital.gov.br/documentos-e-arquivos/Orientacao%20servicos%20em%20nuvem.pdf.

Mais um reforço, toda essa diretiva é para o Governo Federal.

Cabe destacar que, como se trata de uma Instrução Normativa extremamente nova, abril de 2019, ainda não puderam ser dimensionadas todas suas possíveis repercussões. A integra do IN 1 encontra-se na sessão de anexos.

Resumo – Principais Pontos de Atenção

ANEXOS 

Disponibilizamos a seguir  exemplos de edital e memorial descritivo que podem ser úteis:

Modelo de edital para contratação de switches

Pregão Eletrônico do Ministério Público do Estado de São Paulo

Memorial descritivo para aquisição de servidores

Fundação de Apoio ao Ensino, Pesquisa e Assistência do Hospital das Clínicas da Faculdade de Medicina de Ribeirão Preto-USP