quarta-feira, 17 de fevereiro de 2016

EMC/VMware apresentam o novo VCE VxRail

                 

Ontem foi anunciado pela EMC/VMware o lançamento de um novo appliance de infraestrutura hiper-convergente, chamado VxRail. O VxRail é produto que faltava no portfólio de infraestrutura convergente da VCE, que já possuía os produtos VBlock, VxBlock e VxRack.


Quem acompanha o blog deve se lembrar que há cerca de um ano atrás fiz um post falando sobre o VSPEX Blue, que também é um appliance HCI (Hyper-Converged Infrastructure) ofertado pela EMC. O VSPEX Blue foi a primeira investida da EMC no mercado de HCI, e por isso deixava a desejar em algumas questões, quando comparado com outros produtos ofertados no mercado. Por exemplo:

Tamanho inicial e escalabilidade – uma das principais limitações no VSPEX Blue era a falta de flexibilidade no tamanho inicial da primeira instalação e também a falta de granularidade na hora de expandir uma instalação existente. Ambas essas características se mostraram essenciais para usuários de plataformas HCI. Alguns concorrentes, por exemplo, permitem que os usuários iniciem com uma configuração de 3 nós e cresçam 1 nó por vez. No VSPEX Blue é necessário iniciar com no mínimo 4 nós, e a expansão também deve ser feita com 4 nós.

Limitação na oferta de Data Services – outra limitação do VSPEX Blue era a falta de serviços no armazenamento de dados, como por exemplo: Desduplicação e Compressão. Estes serviços podem oferecer uma economia considerável na quantidade de GB/TB necessários para o armazenamento dos dados.

O VxRail foi desenvolvido em conjunto pela EMC e pela VMware e oferece um produto exclusivo, completamente integrado, pré-configurado e testado, capaz de subir de maneira rápida e fácil um ambiente VMware totalmente virtualizado, tudo definido por software.

A arquitetura do VxRail segue o modelo já conhecido de HCIA, ou seja, uma “caixa”de 2Us composta por até 4 nós (nodes), também conhecida como 2U4N. Sendo que cada um dos nós possui seus próprios processadores, RAM e discos.

Visão Frontal


Visão Traseira

Um detalhe importante é que essas são as disposições iniciais, mas futuramente pode ser que sejam disponibilizadas novas formas de configuração, por exemplo um appliance com 2 nós (2U2N).

Outro ponto positivo para o VxRail é a quantidade de configurações com relação a processamento e armazenamento ofertadas:

Modelos híbridos: combina custos e desempenho através de configurações que comportam discos HDD e SSD.


Modelos All-Flash: Máximo desempenho para aplicações e cargas de trabalho de missão crítica que exigem uma baixa latência.


Alguns destes modelos estarão disponíveis de imediato, enquanto outros só estarão disponíveis a partir do Q2/2016.

Outra característica importante do VxRail é a possibilidade de começar pequeno e ir crescendo na medida em que a demanda for aumentando, com a possibilidade de crescer em um único nó. Isso permite que as organizações invistam apenas o necessário naquele momento, evitando com isso o desperdício de recursos.

Com relação a essa escalabilidade, é possível crescer até o limite de 16 appliances, totalizando 64 nós de processamento, e dependendo da configuração podendo chegar a até 1.2 PB de armazenamento all-flash.


Sobre a parte de software incluída no VxRail, a base de tudo é o VMware vSphere (incluindo vSphere HA, vMotion & DRS por padrão) com Virtual SAN (VSAN). Inicialmente será fornecido o Virtual SAN 6.1, mas a partir do Q2 passará a ser fornecido com o VSAN 6.2, contando com um upgrade não-disruptivo para que estiver na versão 6.1.

Consequentemente, funcionalidades como desduplicação, compressão e erasure coding estarão disponíveis a partir do Q2 (modelos com o VSAN 6.2) nas configurações de appliance com modelos All-Flash.

Além disso, uma série de softwares EMC estão inclusos na solução, por exemplo:

VxRail Manager – Interface única para gerenciamento centralizado da solução (incluindo VMware vCenter e VMware Log Insight).

RecoverPoint for VMs (RP4VM’s) – licenciado para até 15 VMs por appliance, mas nada impede que seja adquiridas licenças adicionais se necessário.

EMC CloudArray – licenciado para até 10TB por appliance. Permite expandir a capacidade de armazenamento do appliance utilizando armazenamento na nuvem.


Lá fora o mercado para appliances de infraestrura hiper-convergente parece estar indo muito bem, não é atoa que vemos uma grande quantidade de soluções sendo ofertadas. Aqui no Brasil ainda nao vejo um mercado muito aquecido nesse sentido, mas é certo que mais cedo ou mais tarde as coisas comecem a mudar...

Saiba mais em ...

segunda-feira, 16 de novembro de 2015

ESXi Embedded Host Client – Acessando o ESXi pelo browser

                 

Há cerca de 3 meses o VMwareLabs, site no qual os engenheiros da VMware costumam compartilhar algumas Flings, disponibilizou uma fling chamada ESXi Embedded Host Client.

Essa fling é uma interface gráfica para o host ESXi e foi toda desenvolvida em HTML5 e JavaScript, e pode representar uma prévia do que pode vir a ser o vSphere Web Client futuramente.

Como se trata de uma fling não há nenhuma garantia de que a mesma se torne algo oficial, mas pelo feedback positivo e o sucesso que tem feito na comunidade VMware, é provável que nos próximos lançamentos o ESXi já venha com essa interface embutidade. Por enquanto também não há nenhum tipo de suporte, em caso de problemas/bugs a única alternativa é deixar uma mensagem na página da própria ferramenta, e aguardar que o engenheiro responsável responda.

No momento as seguintes operações estão disponíveis com a ferramenta:

  • ·         VM operations (Power on, off, reset, suspend, etc).
  • ·         Creating a new VM, from scratch or from OVF/OVA (limited OVA support)
  • ·         Configuring NTP on a host
  • ·         Displaying summaries, events, tasks and notifications/alerts
  • ·         Providing a console to VMs
  • ·         Configuring host networking
  • ·         Configuring host advanced settings
  • ·         Configuring host services

A ferramenta está disponível no format .vib, para ser instalada diretamente no host ESXi, e também como .zip (offline bundle), para ser utilizada junto com o VUM (vSphere Update Manager).


O download e as instruções de instalação estão na página da solução.


quarta-feira, 22 de abril de 2015

Lab VMware na nuvem (AWS ou Google Cloud)

                 

Que tal a possibilidade de montar o seu ambiente de lab em uma nuvem pública da Amazon (AWS) ou Google (GCP)?! Parece interessante né?! Pois essa é a nova oferta da startup israelense Ravello Systems.

Basicamente a Ravello Systems desenvolveu o seu próprio hypervisor (baseado no KVM), chamado HVX. O HVX roda em cima de máquinas virtuais nas nuvens da AWS ou Google Cloud. Inicialmente a tecnologia permitia a importação de máquinas virtuais VMware e KVM, sem a necessidade de qualquer modificação nas VMs, oferecendo a oportunidade de reproduzir um ambiente de produção na nuvem, atendendo a uma série de casos de uso:

- Desenvolvimento/testes;
- Demonstrações;
- Treinamentos e etc.

Na última semana, a Ravello Systems anunciou (ainda em versão beta) a implementação de uma nova funcionalidade no HVX que emula as features Intel-VT/AMD-V, permitindo assim que hypervisors como ESXi e KVM possam ser instalados em máquinas virtuais rodando em cima do HVX, que por sua vez está rodando em cima de uma VM na nuvem. J


Por se tratar de uma funcionalidade ainda em versão beta, existem algumas limitações:

- Não há suporte para a interface de rede VMXNET3 no ESXi virtual. Consequentemente também não é possível utilizar o SMP-FT, pois requer uma rede de 10Gb (vmxnet3);
- Não há suporte para o VCSA 6.0 por conta de limitações de controladoras de disco e no suporte ao formato OVF;

Aqueles que tiverem interesse podem se cadastrar para testar a solução por um período de 14 dias e com algumas restrições de capacidade:

-          Versions supported: ESXi 5.5 and ESXi 6.0
-          Maximum number of CPUs per ESXi host: 4 CPUs
-          Maximum memory per ESXi host: 32GB
-          Maximum number of guest VMs per ESXi host: 4
-          Maximum vCPU per guest VM: 2 vCPUs
-          Maximum memory per guest VM: 8GB RAM
-          Maximum number of ESXi hosts in an environment: 250

Como eu estava sem hardware disponível para montar meu lab com o novo vSphere ESXi 6.0, resolvi testar a plataforma da Ravello Systems.

O primeiro passo foi me cadastrar no site da Ravello Systems. Após o cadastro recebi um email com todas as informações de como instalar o ESXi na plataforma.

São várias as configurações necessárias, mas com os artigos contendo os passo a passos publicados no blog da empresa, foi bem tranquilo para colocar o lab no ar.


Abaixo você confere o ambiente que eu criei:


AD/DNS – 2vCPU, 2GB RAM, 50GB HD
NFS – 1vCPU, 2GB RAM, 132GB HD
vCenter – 2vCPU, 8GB RAM, 52GB HD
3 ESXi – 4vCPU, 7GB RAM, 20GB HD (cada)

Para se ter uma idéia um ambiente como este que eu montei, após o período de trial, me custaria em torno de $2,64/hr.

O resultado final me agradou bastante. A interface é bem intuitiva e o desempenho atende perfeitamente o necessário para um ambiente de lab. Além disso, a possibilidade de utilizar templates (VM library) e blueprints (que permite o deploy de um ambiente completo) facilita e agiliza a criação/reprodução de novos ambientes. 

terça-feira, 24 de março de 2015

Considerações importantes antes de instalar VMware vCenter Server 6.0

                 

O VMware vSphere 6.0 trouxe algumas mudanças relevantes na sua arquitetura, principalmente no vCenter Server, com a introdução da Platform Services Controller e a junção da maioria dos serviços necessários em uma única instalação (sem a opção de separação desses serviços).

Aqueles que já tiveram a oportunidade de executar uma instalação/atualização de ambiente VMware em versões anteriores (5.x), devem se lembrar que existia uma ordem correta na instalação dos componentes do vCenter Server. 

Basicamente você tinha a opção de executar uma instalação simplificada (Simple Install), na qual todos os componentes (vCenter Inventory Service, vCenter Single Sign-On, vCenter Server e vSphere Web Client) eram instalados automaticamente, na ordem necessária e na mesma máquina. E além dessa opção, também era possível instalar cada um desses componentes separadamente, na mesma máquina ou em máquinas diferentes.

No vCenter Server 6.0, essa “estrutura” mudou, e os serviços foram divididos da seguinte maneira:

VMware Platform Services Controller

- Single Sign-On
- vSphere License  Service
- VMware Certificate Authority

vCenter Server

- vCenter Inventory Service
- PostgreSQL
- vSphere Web Client
- vSphere ESXi Dump Collector
- vSphere Syslog Collector (no caso do vCenter Server p/ Windows)
- vSphere Syslog Service (no caso do vCSA)
- vSphere Auto Deploy

Todos estes serviços são instalados em conjunto, ou seja, ao instalar o VMware Platform Services Controller, você na verdade está instalando todos os serviços listados anteriormente, assim como no caso do vCenter Server, ao fazer a instalação ou o deploy do vCenter Server Appliance, todos os serviços listados também são automaticamente instalados. Não existe a possibilidade de instalar nenhum desses serviços separadamente, por exemplo: não tem como instalar o vCenter Inventory Server em uma máquina e o vCenter Server em outra máquina, como era possível até o vCenter Server 5.5.

De certa forma essa nova configuração simplificou bastante todo o processo de instalação do vCenter Server. O planejamento que deve ser feito a partir de agora é com relação à Platform Services Controller e o vCenter Server.

Existem duas opções para a instalação do vCenter Server e do VMware PSC:

vCenter Server with an embedded Platform Services Controller: nesta opção o vCenter Server, os componentes do vCenter Server e todos os serviços que compõem a PSC são instalados na mesma máquina.

vCenter Server with an external Platform Services Controller: nesta opção o vCenter Server e os seus componentes são instalados em uma máquina e os serviços que compões a PSC são instalados em uma outra máquina.

Essa escolha deve ser feita com bastante cuidado pois uma vez definida a configuração, para alterá-la após a instalação é bastante complicado.

Existem diversas variações dessa arquitetura, como por exemplo a utilização de uma única PSC para mais de um vCenter Server ou então a utilização de mais de uma PSC. Aqueles que tiverem interesse recomendo a leitura do artigo “vSphere Datacenter Design – vCenter Architecture Changes in vSphere 6.0 – Part 1”, no qual o autor mostra várias opções de configuração e diz quais são recomendadas  e quais não são.

Aqueles que estão pensando em atualizar o ambiente de uma versão anterior para o vCenter Server 6.0 devem ter ainda mais precaução. Em primeiro lugar é necessário que o seu ambiente já esteja no mínimo em alguma versão do vCenter Server 5.x. Não é possível atualizar diretamente um vCenter Server 4.x ou anterior. Nestes casos será necessário atualizar para uma versão vCenter Server 5.x para então atualizar para o vCenter Server 6.0.

Uma outra questão importante a ser observada, é que dependendo de como foi feita a sua instalação do vCenter Server 5.1 e 5.5, pode acontecer da atualização para o vCenter Server 6.0 resultar em uma topologia (PSC e vCenter Server) não recomendada.

Para maiores detalhes vejam o KB “List of recommended topologies for vSphere 6.0.x (2108548)

Outra consideração importante é sobre o banco de dados, caso sua instalação atual do vCenter Server 5.x tenha sido feita utilizando o SQL Express (que até então era instalado junto com o vCenter Server, caso não fosse especificado um outro banco de dados), a atualização para o vCenter Server 6.0 efetuará automaticamente uma migração desse banco de dados para um banco Postgres. Esse banco Postgres que vem embutido no vCenter Server suporta até 20 hosts ESXi e 200 VMs, na versão Windows. No vCenter Server Appliance o Postgres pode ser usado para ambientes com até 1.000 hosts ESXi e 10.000 VMs.

Para finalizar, recomendo a leitura do KB “Important information before upgrading to vSphere 6.0 (2110293)”, que contêm diversas considerações relevantes para os que pretendem atualizar o ambiente para o vCenter Server 6.0.