[VMware] vSphere 5.5のサポート終了について

 

おそらくまだまだ本番環境で現役として運用中であろうvSphere 5.5のサポート期間が今年(2018年) 9月19日で終了します。

vSphere 5.5 and vSAN 5.5 End of General Support Reminder

正式には”ジェネラルサポートの終了-End of General Support (EOGS) “になりまして、その後2年間の”テクニカル ガイダンス-Technical Guidance”期間に入るため、まあ~最悪2020年9月19日までは引き続き利用可能とも言えます。ただし”ジェネラルサポート”で提供するメンテナンス アップデートやアップグレード、不具合とセキュリティの修正がなくなるため、EOGS以降発生するバグや脆弱性に対する対応が難しくなります。

 

もちろんEOGSの前にvSphere 6.xにバージョンアップすることがベストですが、予算なども含め検討が必要かと思います。

 

Lifecycle MatrixによるとvSphere(ESXiとvCenter) 5.5に合わせ、以下のプロダクトも同じく2018年9月18日でEOGSを迎える予定となってます。

  • Cisco Nexus 1000V
  • Integrated OpenStack 3.1
  • Site Recovery Manager 5.5、 5.8
  • vCenter Server Heartbeat 6.6
  • vCenter Update Manager 5.5
  • vRealize Automation 6.2.5 Advanced/Enterprise Edition
  • vSAN 5.5 🙂

  • vSphere Data Protection 5.5、 5.8
  • vSphere Storage Appliance 5.5

 

広告

[Microsoft] VMware vSphere on Azureハードウェア

 

2017/12/23 updated

両者、話し合ったようです。

VMware社は先日”サポートしない”といった発表内容を変更し”サポートする“としています。

Recently, Microsoft announced a preview of VMware virtualization on Azure, a bare-metal solution that is stated to run a VMware stack on Azure hardware, co-located with other Azure services in partnership with VMware-certified partners. This offering is being developed independent of VMware, however it is being offered as a dedicated, server-hosted solution similar in approach to other VMware Cloud Provider Partners (VCPP). The deployment is on VMware certified hardware consisting of FlexPod. VMware is in the process of engaging with the partner to ensure compliance and that the appropriate support model is in place.

VMware vSphere on Azureサービスは、他のVCPP(クラウドプロバイダーパートナーズ)と同じく、専用のハードウェアを使ったホスティングサービスとしてサポートしていくことでした。

 

一方、マイクロソフト社でも同じ内容を紹介し、Flexpodを提供基盤として利用するすることも明らかにしています。

To enable this solution, we are working with multiple VMware Cloud Provider Program partners and running on existing VMware-certified hardware. For example, our preview hardware will use a flexpod bare metal configuration with NetApp storage.

 

まあ、これで一先ず両者のピリピリムードは落ち着いたんですかね…

 


去年、AWSのハードウェア上にvSphereを導入し提供するVMware Cloud on AWSが発表され今年アメリカwestリージョンでサービスが開始されましたが…

 

Azureでも同じようなサービスを提供すると発表されました。

 

Transforming your VMware environment with Microsoft Azure

 

上記発表によるとAzureハードウェア上で完全なvSphere環境を提供するとしています。

Today, we’re excited to announce the preview of VMware virtualization on Azure, a bare-metal solution that runs the full VMware stack on Azure hardware, co-located with other Azure services.

 

おそらくオンプレミスのvSphere環境をAzureに移行させるための踏み台的なサービスを提供かと。

そもそも”Azureハードウェア上で完全なvSphere環境を提供する”というのが発表のメインというより”vSphere環境で稼働中ワークロードをAzureに移行する”ことが狙いかと思います。

 

この発表に対して、2日後VMwareも発表をしましたが、やはりニュアンスが違います。

 

VMware – The Platform of Choice in the Cloud

 

Recently, Microsoft announced preview of VMware virtualization on Azure, a bare-metal solution that is stated to run a VMware stack on Azure hardware, co-located with other Azure services in partnership with VMware-certified partners. No VMware-certified partner names have been mentioned nor have any partners collaborated with VMware in engineering this offering.

This offering has been developed independent of VMware, and is neither certified nor supported by VMware.

 

要はAWSのように両社が共同でサービスを開発したわけではなく、マイクロソフト社単独のサービス提供で

あり、VMware社の認定もサポートもしてないとのことです。ふむ。

 

ということでAzureでもbare-metalベースのvSphere環境が構築可能だが、VMware社のサポートは受けられないようなのでサービスが開始されても本番環境の運用は慎重に検討する必要があると思います。

 

[Nutanix] 純正移行ツール Xtract for VMの紹介(2)

前回はXtract for VMsの説明とインストールについて簡単に紹介しました。

今回は実際に仮想マシンの移行について簡単に紹介しようと思います。

 

 

① Xtract for VMsにログインし、ソース環境を追加します。ソース環境はvCenterになります。

 

② ソース環境を追加しましたら、今度はターゲットのAHVクラスタを追加します。

 

③ ソース、ターゲットを追加しましたら、移行プランを作成します。画面中央の”Create a Migration Plan”をクリックします。

 

④ 移行プランを作成したら、ターゲットクラスタとコンテナを選択します。

 

⑤ 移行対象仮想マシンを選択し、移行プランに追加します。

 

⑥ 移行時仮想マシンのネットワークアダプタのドライバーなどがAHV用に上書きされます。そのためXtract for VMsが仮想マシンにログインする必要があります。仮想マシンにログインするユーザ名とパスワード、移行先で使用するネットワークを指定します。

 

⑦ これで移行準備は終わりです。”Save and Start”をクリックし、移行を開始しましょう。

 

⑧ 移行が開始されると、まず設定した情報の有効性をチェックします。

 

⑨ 設定情報が有効だった場合は、初期レプリケーションが自動的に開始されます。

 

⑩ 初期レプリケーションが開始されるとXtract for VMsにトラフィックが流れるのが確認できます。

⑪ この状態でソースのvCenterを見てみると、移行対象仮想マシンに対してスナップショットが作成されたことが確認できます。

 

⑫ 移行が終盤にかかると “Status”に’小さい●’が表示されます。クリックしてみると”Ready For Cutover” 状態が確認できます。前回にも説明した通りCutoverを実行しない限り、移行は完了されません。

 

⑬ 仮想マシンを選択し “Cutover”を実行します。Cutoverを実行するとソース環境上の仮想マシンはシャットダウンされ、仮想マシンの’メモ’欄には次のようなメッセージが記録されます。

VM migrated to 192.168.205.55 by New Migration Plan on Tue Oct 10 11:40:26 UTC 2017 by xtract-vm 1.0.15

 

⑭ ソース環境上の仮想マシンが停止したらスナップショットが作成され、最終同期が行われます。

 

⑮ 移行が完了しました。移行が完了したらPrism上で移行された仮想マシンが確認できます。

 

⑯ ソース環境のvCenterを確認してみると仮想マシンの停止後、スナップショットが作成されてから削除されたことも確認できます。

 

どうでしょうか?本当に簡単じゃないすか?操作ステップも少なく、非常にスムーズに移行ができました。

個人的にはAHV専用ツールではない、汎用の移行ツールとして仕上げてもらいぐらいです。:)

 

今回の検証は1ノードのコミュニティーエディション(しかもネスト)で行いましたので、コミュニティーエディションをお持ちの方は是非試してみてください。

 

 

[Nutanix] 純正移行ツール Xtract for VMの紹介(1)

10月5日、Nutanix社純正移行ツールであるXtract for VMがGAされました。(Xtract for DBsもありますが、それは今度にします)

 

このXtract for VMは今年ワーシントンで開催された.NEXT Conf 2017 USで発表された移行ツールです。このツールを使うとvSphere環境からAHV環境へ仮想マシンをを簡単に移行できます。(過去にVDDK(Virtual Disk Development Kit)を使用した移行ツールを使ったことがありますが、このXtract for VMも同じフローです)

上図のように移行を開始するとまず、初期レプリケーション(initail seeding)が行われます。初期レプリケーション完了後は差分のみ同期が行われます。ここまででは移行は終わりません。仮想マシンの移行を完了するためにはCutoverを実行し仮想マシンを切り替える必要があります。切り替えという表現を使ったのはCutoverを実行することでソースvSphere環境上の仮想マシンがシャットダウンされ、ターゲットAHV環境にレプリケーションされている仮想マシンが登録されるためです。よって移行が完了してもvSphere上の仮想マシンは残ります。

 

 

Xtract for VMの重要機能は以下のとおりです。

  • 稼働中または停止中の仮想マシンの移行可能
  • 移行プロセスの一時停止、レジューム可能
  • スケジューリング可能
  • 複数クラスタからの移行をサポート
  • 移行対象仮想マシンのグループ化可能
  • 切り替えタイミングを見計らっての移行可能(Cutover)
  • 仮想マシン単位で移行状況のモニタリング可能
  • AHVがサポートしているすべてのOS対応

 

逆にまだサポートされない部分は次のとおりです。

  • AHVがサポートしてないOSの仮想マシン
  • 仮想マシン名が英語以外の場合
  • vCenterを経由しないESXiホストダイレクト接続
  • RDMや独立ディスクを使用している仮想マシン
  • マルチライトモートディスクを使用している仮想マシン
  • 2GBのスパースディスクを使用している仮想マシン

 

早速検証環境で動作を確認してみました。さすが、NutanixらしいシンプルなUIと直感的な操作でまったく迷うことなく移行ができました。

 

簡単にインストールと移行方法について紹介したいと思います。

まずインストール前に利用条件を確認しましょう。Xtract for VMを利用する場合、以下の条件を満たす必要があります。

  • vSphereからAHVへの一方向への移行のみサポート
  • ソースのvSphere(vCenter)は、バージョン5.5以上
  • ターゲットのAHV(AOS)は、バージョン5.5以上
  • 操作するブラウザはGoogle Chromeのみサポート
  • 移行対象仮想マシンにはvmware toolsインストール済み
  • 移行対象仮想マシンの仮想ハードウェアバージョンは7.0以上
  • CBTサポート要

 

それでは簡単にインストールについて紹介します。

簡単の方法はアプライアンスの導入です。

① まずNutanixのポータルからXtract for VM用ファイルをダウンロードし、解凍します。

 

② 解凍したフォルダの中から、’xtract-vm-1.0.15.qcow2’ファイルをPrismの”Image Configuration”に登録します。

 

③ Xtract for VM用仮想マシンを作成します。仮想マシン作成時は、次の項目を設定します。

    • CPU : 2 vCPU
    • メモリ : 4GB
    • ディスク : 手順 ②で登録したイメージファイル ※ デフォルトで追加されているCD-ROMは削除します。削除しないとエラーが作成できません。
    • ネットワークアダプタ : vCenterとAHVクラスタにアクセス可能なネットワーク
    • カスタムスクリプト : 解凍したフォルダ内の’xtract-vm-cloudinit-script’ファイルの中身を”Type or paste script”欄にコピーアンドペーストします。

 

④  仮想マシンを作成し、起動後はWebブラウザからXtract for VM UIにアクセスします。EULAに同意後、初期パスワードを設定すると準備完了です。

 

⑤ ログインしてみると非常にシンプルなUIであることが分かります。(個人的にはこれもNutanixの強みの一つだと思います)

 

これでXtract for VMのインストールは終わりです。次回は移行の方法について簡単に紹介したいと思います。

 

[Nutanix] vRealize Automationのエンドポイントとして使ってみよう

このポストは、 Nutanix Advent Calendar 2016に参加しています。

 

先に言っておきます。とにかくやってみました。

何をやってみたかというと… vRealize AutomationのエンドポイントとしてNutanixを追加してみました。(しかもNested CE) なんだか余計なことをしたような気がしてなりませんが…

 

ご存知の方もいらっしゃると思いますが、vRealize Automationは主にプライベートクラウドを構築できるソリューションで、仮想インフラのITサービスを自動化してくれるプロダクトです。
仮想インフラだけではなくクラウドや物理サーバに至るまでマシンのデプロイからvRealize Orchestratorを利用したワークフローまで、インフラ管理者が担っていたルーチンワークをユーザ自身に任せて、管理者が楽になれる ITサービスの質を上げることができます。まあ、要は企業のインフラ環境をより迅速かつ効率的な利用が可能になるということです。

 

このvRAはコンピュートリソースを”エンドポイント”として登録し、利用しますが、vCloud Directorとは違いVMwareソリューションだけではなくHyper-VやKVMといったマルチハイパーバイザーはもちろんAWSやAzureなどのパブリッククラウドも利用が可能です。
ただし、vRAのエンドポイントとしてAHVはサポートしていませんので、今回はOpenStackとしてエンドポイントを作成するという迂回路を選びます。

 

で、ここでです。
失礼ながらOpenStackについては全くと言っていい程知りません。cinder?neutron?Glance?知りません。 (;゚д゚)ァ…. とにかくやってみました。

 

まず、Nutanix AHV環境をOpenStackとして構成します。公式ドキュメントはもちろんちゃんとOpenStack Services VM (OVM)も提供されているので簡単にできます。

vrawithnutanix-01

Nutanix Partner Portalより、Nutanix OpenStack Imageをダウンロードします。

 

vrawithnutanix-02

ダウンロードしたOVMのイメージファイルを”Image Configuration”よりアップロードし、OVM用VMを作成します。作成時の操作はアップロードしたイメージを使えるよう”Clone From Image Service”を選択します。

 

vrawithnutanix-03

無事、OVMの作成終わったら、コンソール接続し、コマンドを実行します。

ログインアカウント:root パスワード:admin

● OVMの追加

ovmctl –add ovm –name ovm名 –ip IPアドレス –netmask サブネットマスク –gateway ゲートウェイ –nameserver DNSサーバ –domain ドメイン名

● OpenStackコントローラの追加

 ovmctl –add controller –name openstackコントローラ名 –ip ovmのIPアドレス

 

vrawithnutanix-04

今度はNutanix AHVクラスタを登録します。

● Nutanix AHV クラスタの登録

ovmctl –add cluster –name クラスタ名 –ip クラスタIPアドレス –username Prismログインユーザ(管理者権限) –password パスワード –container コンテナー名

 

vrawithnutanix-05

正常に登録が終わったら、きちんと構成されたか確認します。

● 構成確認

ovmctl –show

 

vrawithnutanix-06

ちゃんとクラスタが登録されています。

 

vrawithnutanix-07

OpenStackコントローラも正常に登録され状態も有効になっています。

 

ここまでがNutanix AHV環境をOpenStackとして構成する手順です。
OpenStackの準備が整ったら、今度はvRAです。(vRAの構成は割愛します)

 

vrawithnutanix-08

テナント管理者としてポータルにログイン、「インフラストラクチャ」→「エンドポイント」より”OpenStack”を選択します。

 

vrawithnutanix-09

”エンドポイント”の情報を入力します。

– Name:作成するエンドポイント名(なんでもOK)

– Address:http://OpenStackコントローラIPアドレス:5000 (httpsだときちんと登録されません)

– Credentials:OpenStackコントローラログイン情報 (デフォルトログインアカウント:admin パスワード:admin)

– OpenStack project:OpenStackプロジェクト名 (大文字、小文字区別します。間違うと登録されません)

 

vrawithnutanix-10

正常に登録されるか確認しましょう。「View Compute Resources」をクリックします。

 

vrawithnutanix-11

「Start」をクリックし、Dataを収集します。正常にエンドポイントの作成ができていればData Collectionが成功するはずです。

 

vrawithnutanix-12

エンドポイントに正常に登録されると、ファブリックグループ作成時、Nutanix AHV OpenStackのコンピュートリソースが参照できるようになります。

 

エンドポイント、コンピュートリソースが参照できれば、あとはビジネスグループ(誰が使うのか)、ファブリック(どんだけリソースを使わせるのか)を決め、ブループリント(VM、サービスのデプロイ)を作成すれば終わりです。
※ここまで紹介したかったんですが、NestedなAHVなせいか、ちょっと負荷が上がるとすぐOpenStack環境が落ちてしまうため、あいにく紹介できません。すみません。
ここまでがvRAのエンドポイントとしてAHVを利用する方法について紹介しました。

 

Nutanix AHVクラスタをせっかくOpenStackとして構成したならそのまま使えば良いんじゃ?とも思いましたが、vSphere、Hyper-VやNutanix AHVなどが混在する環境ならすべてをvRAのエンドポイントとして登録することで環境全体のリソース管理やユーザへの提供が一つのセルフポータルでできる。これはこれで効率的じゃないかと思います。 🙂

 

[VMware] VMware announced EVO:RAIL

先週サンフランシスコで開催されましたVMworld 2014でVMware発のコンバージドインフラストラクチャーEVO:RAILが公開されました。

このEVO:RAILはプロジェクトMARVINで知られていたものでハードウェア/ソフトウェアの統合ソリューションの新しい名称で、去年からVMwareがハードウェア市場にまで手を伸ばすという風に噂されていたものです。

 

2UのハードウェアにvSphere、Virtual SAN、LogInsightが提供されるアプライアンスで、最短パスワードを2回入力するだけで、構成が終わるとのことです。(完全自動構成時の場合)

紹介ビデオを見れば一目瞭然。今までハードウェアの設置から始まるvSphereの導入が劇的に短縮されます。

EVO:RAILアプライアンスは、4ノードで構成され、最大4アプライアンス(16ノード)まで拡張できるとのことです。

各ノードはIvy-Bridgeプロセッサー×2、192GBメモリ、1.2TB×3 HDD、400GB×1 SDD、10GbE×ネットワークポートで構成され、アプライアンス当たり最大100台の仮想マシンまたは最大250台の仮想デスクトップを集約できることを想定しているとのことです。

 

現在EVO:RAILのパートナーとしてはDELL、Fujitsu、EMC、SuperMicro、NetOne Systems、Inspurの6社で、各パートナーは自社製x86サーバーwモデルとしてプロダクトを発表していますし、価格は$80,000~$250,000帯になると予想されています。

 

非常に魅力的なプロダクトです。

 

 

[VMware] Security Alert! Heartbleed OpenSSL security issue

【4/20 Update】

本バグに対応するパッチが4/19にリリースされました。リリースされたパッチは各プロダクトのダウンロードページから入手できます。

 

 

メモリ上の情報が暗号化されないまま、攻撃者に取られる恐れのあるOpenSSLの深刻なバグが報告されました。

このバグはOpenSSL 1.0.1から1.0.1fまでのバージョンに影響し、4月7日修正された1.0.1gがリリースされています。

VMware社からも、この”Heartbleed” バグによる影響や対象プロダクトに関するアラートが発表されました。

次の製品が”Heartbleed” バグによる影響を受けるリスクがあり、現在修正パッチを準備中とのことです。

  • ESXi 5.5
  • vCenter Server 5.5
  • VMware Fusion 6.0.x
  • VMware vCloud Automation Center (vCAC) 5.1.x
  • VMware vCloud Automation Center (vCAC) 5.2.x
  • VMware Horizon Mirage 4.4.0
  • vFabric Web Server 5.0.x – 5.3.x (For remediation details, see the Security Advisory on Critical Updates to vFabric Web Server document.)
  • VMware vCloud Networking and Security (vCNS) 5.1.3
  • VMware vCloud Networking and Security (vCNS) 5.5.1
  • NSX-V 6.0.x
  • NSX-MH 3.3
  • NSX-MH 4.x
  • VMware Horizon View 5.2 Feature Pack 2
  • VMware Horizon View 5.3 Feature Pack 1
  • VMware Horizon View Clients 2.1.x
  • VMware Horizon View Clients 2.2.x
  • VMware Horizon View Clients 2.3.0
  • VMware Horizon View Clients 2.4.0
  • VMware Horizon Workspace 1.0
  • VMware Horizon Workspace 1.5
  • VMware Horizon Workspace 1.8
  • VMware Horizon Workspace Client for Macintosh 1.5.1
  • VMware Horizon Workspace Client for Macintosh 1.5.2
  • VMware Horizon Workspace for Macintosh 1.8
  • VMware Horizon Workspace Client for Windows 1.5.1
  • VMware Horizon Workspace Client for Windows 1.5.2
  • VMware Horizon Workspace for Windows 1.8

なお、顧客用、パートナー用ポータルと各ウェブサイトは影響を受けないとのことです。

詳しい内容は、下記関連ページよりご確認ください。

・’Heartbleed’バグによる影響の概要

  Response to Heartbleed OpenSSL security issue

・’Heartbleed’バグによる製品への影響について

  KB2076225

・’Heartbleed’バグによる顧客/パートナー用ポータルへの影響について

  KB2076353