Seja Bem-Vindo. Este site tem recursos de leitura de texto, basta marcar o texto e clicar no ícone do alto-falante   Click to listen highlighted text! Seja Bem-Vindo. Este site tem recursos de leitura de texto, basta marcar o texto e clicar no ícone do alto-falante

AULA 10 – ORGANIZAÇÃO ESTRUTURADA DE COMPUTADORES

Aspectos gerais da virtualização

A virtualização é um assunto que tem despertado atenção, aparecendo como destaque no mundo da Tecnologia de Informação (TI), apesar de não ser uma novidade. Pode‐se dizer que a ideia da virtualização nasceu com a publicação do artigo Time sharing processing in large fast computers, na Conferência Internacional de Processamento de Informação, realizada em Nova York em 1959. Escrito pelo cientista da computação Christopher Strachey, o texto tratou da multiprogramação em tempo compartilhado, estabelecendo um novo conceito de utilização de máquinas de grande porte. Esses grandes servidores poderiam, agora, aproveitar melhor os recursos de hardware. Baseado no trabalho inicial de Strachey, o MIT desenvolveu o padrão Compatible Time Sharing System (CTSS), que serviu como refencia para diversos fabricantes

Posteriormente, com base na evolução do padrão CTSS, a IBM introduziu o conceito de multiprocessamento nos mainframes, o que permitiu rias CPUs trabalharem como uma só, antecipando o conceito de virtualização. Esses mainframes também laaram a concepção de memória virtual (virtual storage), como parte do Sistema Operacional (SO). Isso possibilitou a abstração e o mapeamento da memória real para memória virtual, além da especificação de partições (ou espaços de endereçamento), usadas por diferentes programas. Assim, surgiram as primeiras formas de virtualização.

Inicialmente, foi adotado o conceito de máquina virtual de processo – uma aplicação que executa sobre um SO A e emula o comportamento de um SO B. As aplicações desenvolvidas para B podem executar sobre A (figura 1). É importante salientar que essa técnica de implementação permite que binários de um processador sejam interpretados e substituídos por código equivalente de outro processador. Portanto, além de emular o Sistema Operacional, é possível emular processadores.

Emulação – Capacidade de imitar o comportamento externo de um sistema, sem preocupação com estados e propriedades internas a ele.

As desvantagens dessa técnica são basicamente duas: pior desempenho e desperdício de capacidades do hardware físico.

  • O desempenho é sacrificado, já que há uma tradução de um sistema a outro, além da execução em modo de usuário;
  • O desperdício da capacidade física do hardware vem do fato de que as máquinas virtuais de processo oferecem dispositivos de E/S genéricos e simples.
Figura 1 – Máquina virtual de processo

Normalmente, há uma confusão no emprego dos termos simulação e emulação. A simulação envolve a modelagem matemática de um fenômeno, ou de um sistema, ressaltando as características‐chave de seu comportamento, com vistas à predição e análise do objeto emulado. Com ela, é possível observar estados e propriedades como se fossem do sistema original real. Exemplos: simuladores de voo, de circuitos elétricos etc.

Os monitores de máquinas virtuais (Virtual Monitor Machine – VMM) surgiram para resolver desvantagens. Também conhecidos como hipervisores (hypervisors), são implementados como uma camada de software entre o hardware e o Sistema Operacional, oferecendo uma máquina virtual para o Sistema Operacional (figura 2). Dessa forma, eles conhecem e exploram eficientemente os dispositivos físicos de E/S. O desempenho tende a ser melhor, por não executarem em modo usuário, evitando chaveamentos de contexto. Existem duas técnicas usadas nos hipervisores: virtualização total e paravirtualização. A diferença essencial é a necessidade de o SO hóspede ser modificado (paravirtualização) ou não (virtualização total) para executar sob o hipervisor.

Figura 2 Monitor de máquina virtual (hipervisor).

O Sistema Operacional Virtual Machine (VM) da IBM surgiu baseado no conceito de
hipervisor, programa que permite vários sistemas operacionais diferentes executarem de
maneira isolada em um único hardware. O IBM VM/370, baseado na virtualização, foi
bastante utilizado para a migração de um mainframe para outro ou de um Sistema
Operacional para outro, permitindo que ambos agissem sob a supervisão do VM hypervisor.
No contexto dos anos 1970, quando a maioria dos mainframes – mesmo de um único
fabricante – era caracterizada por ter seu próprio Sistema Operacional, o uso de máquinas
virtuais permitiu que aplicações de sistemas legados fossem executadas nos novos sistemas.
No entanto, na década de 1980, à medida que os computadores pessoais se popularizavam e
a diversidade de sistemas operacionais foi reduzida para alguns poucos (Unix, Macintosh e
Microsoft), a virtualização foi perdendo importância.
Vários fatores provocaram o ressurgimento da virtualização nos anos 1990, entre os quais
podemos citar a máquina virtual Java – Java Virtual Machine (JVM); o aumento do poder
computacional dos processadores e da capacidade de memória dos computadores pessoais;
e a disseminação de sistemas distribuídos e da própria internet, como um modelo de
serviços baseado em uma arquitetura cliente‐servidor.
O marco inicial desta nova era foi o surgimento da VMware em 1998, criada por Diana
Greene e Mendel Rosenblun. A VMware desenvolveu o primeiro hipervisor, que permitiu a
virtualização de servidores em plataformas x86. Desde 1996, entretanto, outra empresa já
tratava de virtualização, mas em ambiente Macintosh (Connectix, fundada em 1988). Em
2003, a Microsoft adquiriu a Connectix, e, no ano seguinte, a EMC comprou a VMware. Em
seguida, lançou o Microsoft Virtual Server 2005, seu primeiro produto com foco na
virtualização de servidores.
Um aspecto importante de qualquer projeto de virtualização é a possibilidade de redução do
consumo de energia dos servidores e da refrigeração. O fato de otimizar o uso de recursos
promove a economia, pois um servidor à plena carga e outro sem carga consomem
praticamente a mesma quantidade de energia. A virtualização também é uma aliada
importante dos projetos que envolvem a recuperação de desastres, por simplificar a
construção de um ambiente com essa finalidade.

Da forma como é feita hoje, a virtualização é uma revolução na área de TI, o que pode ser
confirmado por análises econômicas conduzidas pela Gartner Inc., pela criação e evolução de
associações como a Enterprise Management Association (EMA) e pelo grande crescimento de
empresas como a VMware. O International Data Corporation (IDC) prevê que o mercado e os
investimentos em virtualização devem aumentar de 6,5 bilhões para 15 bilhões de dólares
em 2011.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Click to listen highlighted text!