VMware ESXiについて



●インストール方法

 参考URL:VMware vSphere Hypervisor ESXi 6.5 インストール&構築手順

 上記を参照してインストールしました。

 おまけ
 参考URL:【VMware ESXi】各種管理用設定について【IP アドレス設定】
 (広告ブロックを無効にする必要あり)

●2つ目のNICに対する仮想スイッチの追加

 参考URL:【VMWare ESXi】図解 仮想ネットワーク・仮想スイッチの概要

 ブラウザでESXiの管理画面にログインします。
 下記の手順で作成します。記載していない設定項目はデフォルトの値のままとなります。

 左ペインのナビゲーターから「ネットワーク」をクリックします。
 「仮想スイッチ」タブをクリック
  「標準仮想スイッチの追加」をクリック
   vSwitch名を記載
   アップリンク1を選択
 「追加」をクリック

 「VMkernel NIC」タブをクリック
  「VMkernel NICの追加」をクリック
   新規ポート グループに任意の名称を記載
   仮想スイッチを選択
   IPv4設定
    静的を選択
    IPアドレスおよびネットマスクを記載
   サービス
    管理にチェック
 「作成」をクリック

 「ポートグループ」タブをクリック
  「ポート グループの追加」をクリック
   名前を記載
   VLAN IDは 0 のまま
   仮想スイッチを選択
  「追加」をクリック

 以上で新たな仮想スイッチの作成は完了です。

 仮想OSに作成した仮想スイッチを割り当てます。

 任意の仮想OSを選択
  「編集」をクリック
  「ネットワークアダプターの追加」をクリック
   「ネットワークアダプター」を選択
  「保存」をクリック

 以上で作業は終了です。

●VMware ESXiにsshで接続するための設定方法

 参考URL:SSH : サービスを起動する

 ESXiホストにSSHでアクセスするには、デフォルトの設定でSSHサービスは無効となっていますので、SSHサービスを起動する必要があります。
 ESXi Shell からコマンドで起動する場合は以下のように実行します。
# 起動する
[root@vmware:~] vim-cmd hostsvc/start_ssh
# 自動起動を有効にする
[root@vmware:~] vim-cmd hostsvc/enable_ssh
# 停止する
[root@vmware:~] vim-cmd hostsvc/stop_ssh
# 自動起動を無効にする
[root@vmware:~] vim-cmd hostsvc/disable_ssh

 ダイレクトコンソールからも有効化できます。
 root ユーザーアカウントでログインし、[Troubleshooting Options] - [Enable SSH] で起動可能です。

●VMware ESXiにsshで接続するネットワークの制限方法

 参考URL:ESXi ホストで許可される IP アドレスの追加

 上記を設定することにより、SSH接続可能なネットワークを制限できるようになります。

●VMware ESXiのsshで公開鍵認証を利用する方法

 参考URL:SSHで公開鍵認証を行う(必要であれば)

 上記を設定することにより、公開鍵認証を利用できるようになります。

●VMware ESXiのにWeb管理画面に接続するネットワークの制限方法

 参考URL:ESXi6.7のWeb管理画面のIPアクセス制限方法

 上記を設定することにより、Web接続可能なネットワークを制限できるようになります。

●VMware ESXiのファイアウォールコマンドリファレンス

 参考URL:ESXi ESXCLI ファイアウォールのコマンド

コマンド 説明
esxcli network firewall get ファイアウォールのステータス(有効または無効)を返し、デフォルトのアクションのリストを表示します。
esxcli network firewall set --default-action デフォルトのアクションをパスに設定するには、true に設定します。デフォルトのアクションをドロップに設定するには、false に設定します。
esxcli network firewall set --enabled ESXi のファイアウォールを有効または無効にします。
esxcli network firewall load ファイアウォール モジュールとルール セットの構成ファイルをロードします。
esxcli network firewall refresh ファイアウォール モジュールがロードされている場合に、ルール セット ファイルを読み取ることでファイアウォールの構成を更新します。
esxcli network firewall unload フィルタを破棄し、ファイアウォール モジュールをアンロードします。
esxcli network firewall ruleset list ルール セット情報を一覧表示します。
esxcli network firewall ruleset set --allowed-all すべての IP アドレスへのすべてのアクセスを許可するには true に設定し、許可された IP アドレスのリストを使用するには false に設定します。
esxcli network firewall ruleset set --enabled --ruleset-id=<string> 指定したルールセットを有効にするには、有効を true に設定します。指定したルールセットを無効にするには、有効を false に設定します。
esxcli network firewall ruleset allowedip list 指定したルール セットの許可された IP アドレスを一覧表示します。
esxcli network firewall ruleset allowedip add 指定した IP アドレスまたは一定範囲内の IP アドレスからルール セットへのアクセスを許可します。
esxcli network firewall ruleset allowedip remove 指定した IP アドレスまたは一定範囲内の IP アドレスからルール セットへのアクセスを解除します
esxcli network firewall ruleset rule list ファイアウォール内の各ルールセットのルールをリストします。


●NTPの設定

 参考URL:NTP : 時刻同期の設定

 時刻同期の設定はデフォルトで無効となっていますので、有効化します。
 なお、ESXiでは、タイムゾーンはUTCのみとなっています。
# NTPの動作状態の確認
[root@vmware:~] esxcli system ntp get
   Enabled: false
   Loglevel: warning
   PID: 0
   Runtime Seconds: 0
   Servers:
   Service Providing Kernel Time:
   Time Service Enabled: false
   Time Synchronized: false

# 同期先のNTPサーバを設定してサービスを有効化
# esxcli system ntp set --server=[ntp server1] --server=[ntp server2] .....
[root@vmware:~] esxcli system ntp set --server=192.168.0.254 --server=ntp.nict.jp
[root@vmware:~] esxcli system ntp set --enabled=yes
[root@vmware:~] esxcli system ntp get
   Enabled: true
   Loglevel: warning
   PID: 262861
   Runtime Seconds: 450
   Servers: 192.168.0.254, ntp.nict.jp
   Service Providing Kernel Time: Network Time Protocol
   Time Service Enabled: true
   Time Synchronized: true

# 動作確認
[root@vmware:~] ntpq -p
     remote           refid      st t when poll reach   delay   offset  jitter
==============================================================================
 dns.srv.world   61.205.120.130   2 u    1   64    1    0.306   +0.034   0.000
 ntp-b3.nict.go. .NICT.           1 u    1   64    1   20.940   +1.203   0.000

[root@vmware:~] chkconfig ntpd
ntpd                    on
[root@vmware:~] esxcli network firewall ruleset rule list | grep ntp
ntpClient                    Outbound   UDP       Dst               123       123
 以上で設定完了です。

●仮想マシンのWake on LANの設定方法

 参考URL:仮想マシンの電力管理設定の管理
 参考URL:【ESXi】【PowerShell】ゲストOSの起動にWake on LAN(Magic Packet)を使用

 Wake on LAN機能をサポートしているのはWindowsのゲストOSのみです。VMware ToolsをインストールしているとWake on LANの設定ができないためあらかじめゲストOSからアンインストールする必要があります。
 仮想マシンへのWake ON LAN設定手順は下記のとおりです。
  • ブラウザを開く。
  • VMware Host Client(例:https://192.168.0.1/ui/#/host)のページへ移動する。
  • [ナビゲータ]パネルの[仮想マシン]のツリーノードを展開。
  • Wake on LANを設定したいのVM(Windowsマシン)を選択。
  • [パワーオン]ボタン押下。
  • ゲストOS起動後、プログラムの削除から、VMWare Toolsをアンインストール。
  • ゲストOSをシャットダウン。
  • 該当VMを右クリック。
  • [設定の編集]を選択。
  • [ネットワークアダプタ1](Wake on Lan対象のNIC)のツリーノードを展開。
  • [アダプタ タイプ]を[E1000e]を[VMXNET3]に変更。
  • [仮想マシンオプション]を選択。
  • [電源管理]のツリーノードを展開。
  • [スタンバイ応答]で[仮想マシンをサスペンドにします。]を選択。
  • [Wake on LAN]で[ネットワークアダプタ1](VM Network)]にチェックを入れる。
  • [保存]ボタン押下。
  • 該当マシンの[パワーオン]ボタン押下。
  • VMWare Toolsをインストール。
 Wake on LAN動作確認のためWindowsの電源オプションの設定でスリープ時間できるだけ短く(例:5分)します。
 Windows用のWake on LANソフトはWake on LAN for Windowsをダウンロードし、起動することを確認しました。
 Linux(Cent OS 7)はnet-toolsインストールし、下記コマンドを実行することにより起動することを確認しました。
$ sudo ether-wake -i eth0 [MACアドレス]
 短くしたスリープ時間を元に戻します。

 以上で作業は終了です。

●ESXiの時刻設定

 参考URL:ESX/ESXi ホスト環境における時刻同期の確認
 参考URL:VMwareでのハードウェアクロックとソフトウェアクロックの関係

 時刻の確認方法は下記のとおりです。
システムクロックの確認
[root@esxi:~] esxcli system time get
2018-08-17T10:40:02Z
ハードウェアクロックの確認
[root@esxi:~] esxcli hardware clock get
2018-08-17T10:40:06Z
システムクロックの設定
[root@esxi:~] esxcli system time set -d 16 -H 19 -m 28 -M 08 -y 2018
ハードウェアクロックの設定
[root@esxi:~] esxcli hardware clock set -d 16 -H 19 -m 29 -M 08 -y 2018


●Syslog転送設定

 参考URL:VMware ESXi Syslog転送設定手順
 参考URL:ESXi6でesxcliコマンドを使ってシスログ転送設定する方法
 参考URL:ねころくぶろぐ

 VMware ESXiのSyslogを転送するには下記のように設定します。

 ・受信側の設定
# vi /etc/rsyslog.conf

# Provides UDP syslog reception
$ModLoad imudp ← コメントアウト
$UDPServerRun 514 ← コメントアウト

# Provides TCP syslog reception
#$ModLoad imtcp
#$InputTCPServerRun 514

# systemctl restart rsyslog

# firewall-cmd --add-port=514/udp --permanent
# firewall-cmd --reload
# firewall-cmd --list-port

 ・送信側の設定

 syslogの設定状態を確認します。
esxcli system syslog config get
Remote Host: <none> ← このように表示される
 Syslogの転送先のホストを指定します。
esxcli system syslog config set --loghost=udp://<IP Address>:514
 Syslogの設定状態を確認します。
esxcli system syslog config get
Remote Host: tcp://***.***.***.***:514; ← このように表示される
 Firewallの設定を確認します。
esxcli network firewall ruleset list | grep syslog
syslog                     true ← Firewallが閉じている状態
 Firewallに穴を開けます。
esxcli network firewall ruleset set --ruleset-id=syslog --enabled=true
 Firewallを再読み込みします。
esxcli network firewall refresh
 Firewallの設定を確認します。
esxcli network firewall ruleset list | grep syslog
syslog                     true ← Firewallが開いている状態
 Syslogサービスを再読み込み
esxcli system syslog reload
 これで転送されるようになります。



 Syslogの設定を無効にする場合は下記のとおりです。
esxcli system syslog config set --reset=loghost
esxcli system syslog reload

 Firewallを無効にする場合は下記のとおりです。
esxcli network firewall ruleset set --ruleset-id=syslog --enabled=false
esxcli network firewall refresh


●バックアップ(エクスポート)について

 参考URL:ESXi 仮想マシンのエクスポートに失敗しました:基礎になる接続が閉じられましたのエラー
 参考URL:VVMwareで仮想OSをovfエクスポートしてOSクローンしてみる
 参考URL:VMWare vSphere client タイムアウト設定

 仮想ディスク(.vmdk)をリストアする際、2つ目の仮想ディスクをVMWare vSphere Web Clientを使用して元に戻すことができませんでした(原因不明)。SSH経由でコマンドを使用した方が良いかもしれません。

 下記バージョンでバックアップ(以下、「エクスポート」という。)を実施したところ、「仮想マシンのエクスポートに失敗しました。操作がタイムアウトしました。」というエラーが発生しバックアップすることができませんでした。
  VMware ESXi 6.5
  VMWare vSphere Client 6.0

 VMWare vSphere Web Clientでエクスポートしたところ正常に作業が完了しました。
 クライアント側のバージョンに問題があったようです。
 また、IE11を使用しているとダウンロードが途中で終了してしまいますので、FirefoxやChrome使用してください。
 これはエクスポートだけでなくデプロイでも該当します。

●USB HDDを認識させる方法について

 参考URL:ESXi 6.x USB データストア作成
 参考URL:VMware vSphere Hypervisor 6.5(ESXi)に外付けUSB-HDDを接続してデータストアとして利用する

 仮想マシンのディスク領域が少ないため、一時的に外付けUSB HDDを取り付けなければならなくなりました。
 そのため、ESXi6.5でUSBを認識させるための作業が必要となりました。認識させるためにはVMwareサーバにSSHで接続する必要がありますので、事前にSSHで接続できる状態にしてください。
 usbarbitratorサービスの停止、usbarbitratorサービスの自動起動無効化を実施します。
$ ssh  -l root
<パスワードの入力>
[root@esxi:~] /etc/init.d/usbarbitrator stop
[root@esxi:~] chkconfig usbarbitrator off
 接続しているUSB HDDがESXiホストから認識できているか確認します。物理的に接続しているのに/dev下に表示されていない場合は、デバイスが認識されていませんので、Windows等でFATでにフォーマット後、再接続してください。
[root@esxi:~] ls /dev/disks/
naa.5000c***********                            vml.02000000003001***********************f
naa.5000c***********:1                          vml.02000000003001***********************f:1
naa.5000c***********:2                          vml.02000000005000c**********************0
naa.5000c***********:3                          vml.02000000005000c**********************0:1
naa.5000c***********:5                          vml.02000000005000c**********************0:2
naa.5000c***********:6                          vml.02000000005000c**********************0:3
naa.5000c***********:7                          vml.02000000005000c**********************0:5
naa.5000c***********:8                          vml.02000000005000c**********************0:6
naa.5000c***********:9                          vml.02000000005000c**********************0:7
naa.50014***********                            vml.02000000005000c**********************0:8
naa.50014***********:2                          vml.02000000005000c**********************0:9
naa.50014***********                            vml.020000000050014**********************4
naa.50014***********:2                          vml.020000000050014**********************4:2
naa.50014***********                            vml.020000000050014**********************4
naa.50014***********:2                          vml.020000000050014**********************4:2
t10.JMicron_Generic_________0**************F    vml.020000000050014**********************4
t10.JMicron_Generic_________0**************F:1  vml.020000000050014**********************4:2
 t10で始まるものがUSB HDDです。
 USB HDDのGPT設定をするため、下記コマンドを実行します。指定するデバイス名は環境に応じて異なりますので注意してください。
[root@esxi:~] partedUtil mklabel /dev/disks/t10.JMicron_Generic_________0**************F gpt
 パーティション作成時にエンドセクタを指定する必要がありますので、下記コマンドを実行して値を算出します。
[root@esxi:~] eval expr $(partedUtil getptbl /dev/disks/t10.JMicron_Generic_________0**************F | \
              tail -1 | awk '{print $1 " \\* " $2 " \\* " $3}') - 1
5860528064
 算出した値を利用して、USBストレージに対してパーティションを設定します。
[root@esxi:~] partedUtil setptbl /dev/disks/t10.JMicron_Generic_________0**************F \
                  gpt "1 2048 5860528064 AA31E02A400F11DB9590000C2911D1B8 0"
 上記手順でパーティションを一つ作成していますので、そのパーティションに対してフォーマットを実行します。
 コマンドのAA31・・・は指定されているコマンドですので、そのまま記載してください。
[root@esxi:~] vmkfstools -C vmfs5 -S USB-HDD /dev/disks/t10.JMicron_Generic_________0**************F:1
create fs deviceName:'/dev/disks/t10.JMicron_Generic_________0**************F:1', fsShortName:'vmfs5', fsName:'USB-HDD'
deviceFullPath:/dev/disks/t10.JMicron_Generic_________0**************F:1 deviceFile:t10.JMicron_Generic_________0**************F:1
ATS on device /dev/disks/t10.JMicron_Generic_________0**************F:1: not supported
.
Checking if remote hosts are using this device as a valid file system. This may take a few seconds...
Creating vmfs5 file system on "t10.JMicron_Generic_________01**************F:1" with blockSize 1048576 and volume label "USB-HDD".
Successfully created new volume: 5bcbe28a-d******7-fdfd-0**********6
 Successfully created new volumeと表示されたらフォーマット完了です。
 GUI(VMWare vSphere Web Client)でログインします。
 ナビゲータの左ペイン内のストレージをクリックします。
 「USB-HDD」として認識されているかどうか確認します。認識されていない場合は「更新」クリックしてみてください。
 問題なく認識されていれば、データストアとして利用できるようになります。

 次に、仮想OSのHDDとして認識させる必要させます。
 HDDを増やしたい仮想OSをシャットダウンします。
 該当仮想OSの「編集(または、設定の編集)」ー「仮想ハードウェア」ー「ハードディスクの追加」ー「新規ハードディスク」をクリックします。
 すると新たに「新規ハードディスク」が表示されます。
 ただし、このままでは既存ハードディスクとなってしまいますので、「新規ハードディスク」の左側の下向き三角形をクリックし設定枠を広げます。
 「地域」の「参照」をクリックし、追加したHDD(上記では、「USB-HDD」)を選択します。
 必要に応じてディレクトリを作成(今回は「ホスト名_HDD」としました。)します。
 その後、割り当てる容量を設定します。
 その他の設定は、必要に応じて設定してください。
 該当仮想OSを起動し、仮想OS側でフォーマットすることにより利用できるようになります。

 設定を元に戻す方法は下記のとおりです。
$ ssh <VMwareのIPアドレス> -l root
<パスワードの入力>
[root@esxi:~] /etc/init.d/usbarbitrator start
[root@esxi:~] chkconfig usbarbitrator on
 ただし、すでにESXiでUSBを使用している場合、usbarbitratorをstartさせるとSSHがフリーズする可能性が高いので、継続的に使用する場合は停止状態にしておくことをお薦めします。

●USB HDDを再認識させる方法について

 上記の方法でUSB HDDをマウントできると、Host Clientのデータストアに下記の用(USB-HDDが今回マウントした対象)に表示されます。

vmware-esxi-x_usbdisk-reconn-01.png

 何かしらの都合により、USB-HDDを再マウントする必要が生じる場合があります。
 一度、アンマウントすると容易にマウントしてくれるわけではありません。
 アンマウント後、該当USB HDDの電源を切ったり、USBケーブルを接続すると、上記の画面でマウントしてもマウントできない現象に陥ります。
 その場合、sshで接続し「esxcfg-volume -l」を実行し、表示内容を確認します。
※USBケーブルを接続したまま、電源OFF→ONでは下記で対応できた

esxcfg-volume -l
Scanning for VMFS-6 host activity (4096 bytes/HB, 1024 HBs).
VMFS UUID/label: 6********-********-****-***********d/USB-HDD
Can mount: Yes
Can resignature: Yes
Extent name: mpx.vmhba**:C0:T0:L0:1	range: 0 - 976639 (MB)
 「Can mount: Yes」のように表示されていれば、下記のコマンドでマウントできます。
esxcfg-volume -m 6********-********-****-***********d USB-HDD
Mounting volume 6********-********-****-***********d

 GUIでアンマウントできない(該当USB HDD上に、仮想ホストをクローン作成すると)ので、下記コマンドでアンマウントします。
esxcfg-volume -u 6********-********-****-***********d USB-HDD
Umounting volume /vmfs/volumes/6********-********-****-***********d
[ConfigStore:371713207872:] DeleteSubObject: Could not find key: snap_volume
 この後、何故かGUIではマウント・アンマウントできなくなります。
 ただし、「esxcfg-volume -l」を実行し、「Can mount: Yes」と表示されるのであれば、コマンドによりマウントできることが確認できました。

 マウントができなくなるのは、下記のような場合です。
sxcfg-volume -l
Scanning for VMFS-6 host activity (4096 bytes/HB, 1024 HBs).
VMFS UUID/label: 6********-********-****-***********d/USB-HDD
Can mount: No (the original volume has some extents online)
Can resignature: Yes
Extent name: mpx.vmhba**:C0:T0:L0:1	range: 0 - 976639 (MB)
 マウントしようとしてもエラーとなります。
esxcfg-volume -m 6********-********-****-***********d USB-HDD
Mounting volume 6********-********-****-***********d
Error: Unable to mount this VMFS volume due to the original volume has some extents online
 これを解消するには、下記のようにします。

 参考URL:Can mount: No (the original volume has some extents online) ESXi

esxcli storage vmfs snapshot resignature -u 6********-********-****-***********d
esxcli storage vmfs snapshot list
esxcfg-volume -l
※何も表示されなくなります

しばらくすると
esxcfg-volume -l
Scanning for VMFS-6 host activity (4096 bytes/HB, 1024 HBs).
VMFS UUID/label: 6********-********-****-***********d/snap-********-USB-HDD
Can mount: Yes
Can resignature: Yes
Extent name: mpx.vmhba40:C0:T0:L0:1	range: 0 - 976639 (MB)

デバイス名が変わっていますが、マウントする時はこれまでのデバイス名でマウントできました。

esxcfg-volume -m 6********-********-****-***********d USB-HDD
Mounting volume 6********-********-****-***********d
 ただし、Host ClientのGUIでは「snap-********-USB-HDD」に変わりました。

●利用済みと認識される空き領域をデータストアとして認識させる

 参考URL:VMWare ESXiの起動用USBメモリの空き領域をデータストアとして認識させる

 SATAのHDDが一部読み取れなくなりアクセスできなくなってしまいました。
 そのため「玄人志向 SSD/HDDスタンド 2.5型&3.5型対応 USB3.0接続 PCレスで高速クローン/3種のイレース可能/エラースキップ機能付き KURO-DACHI/CLONE+ERASE/ESKP」を購入し、新しいHDDにクローンコピーしました。
 クローンコピー済みのHDDを接続しましたが、一部(2TBのうちの約1.8TB)が既に利用済みと認識されてしまいESXiの新しいデータストアとして利用することが出来ませんでした。
 一部利用済みと認識されてしまう領域をWindowsのディスク管理で強制的に未使用領域として、再度HDDを接続しても同様の状況でした。
 インターネットでいろいろ調べた結果、やり方が分かりました。
 
 ESXiにSSHでログインします。
 ディスク構成を確認します。
[root@esxi:~] ls /dev/disks/
mpx.vmhba32:C0:T0:L0    naa.50014ee264f97931:5                                        vml.020000000050014ee264f97931574443205744
mpx.vmhba32:C0:T0:L0:1  naa.50014ee264f97931:6                                        vml.020000000050014ee264f97931574443205744:1
naa.50014ee057bbc824    naa.50014ee264f97931:7                                        vml.020000000050014ee264f97931574443205744:2
naa.50014ee057bbc824:1  naa.50014ee2ae008113                                          vml.020000000050014ee264f97931574443205744:3
naa.50014ee206cfd86b    naa.50014ee2ae008113:2                                        vml.020000000050014ee264f97931574443205744:4
naa.50014ee206cfd86b:2  vml.01000000003031323334353637383941424344454655534220746f    vml.020000000050014ee264f97931574443205744:5
naa.50014ee264f97931    vml.01000000003031323334353637383941424344454655534220746f:1  vml.020000000050014ee264f97931574443205744:6
naa.50014ee264f97931:1  vml.020000000050014ee057bbc824574443205744                    vml.020000000050014ee264f97931574443205744:7
naa.50014ee264f97931:2  vml.020000000050014ee057bbc824574443205744:1                  vml.020000000050014ee2ae008113574443205744
naa.50014ee264f97931:3  vml.020000000050014ee206cfd86b574443205744                    vml.020000000050014ee2ae008113574443205744:2
naa.50014ee264f97931:4  vml.020000000050014ee206cfd86b574443205744:2
 今回、利用済みと認識されてしまうのはnaa.50014ee264f97931のパーティション8番目の領域です(VMware Host Clientで確認)。
 これをデータストアとして利用出来るようにします。
 該当ディスクのパーティションリストを取得します。
[root@esxi:~] partedUtil getptbl /dev/disks/naa.50014ee264f97931
gpt
243201 255 63 3907029168
1 64 8191 C12A7328F81F11D2BA4B00A0C93EC93B systemPartition 128
2 8224 520191 EBD0A0A2B9E5443387C068B6B72699C7 linuxNative 0
3 520224 1032191 EBD0A0A2B9E5443387C068B6B72699C7 linuxNative 0
4 1032224 1257471 9D27538040AD11DBBF97000C2911D1B8 vmkDiagnostic 0
5 1257504 1843199 EBD0A0A2B9E5443387C068B6B72699C7 linuxNative 0
6 1843200 7086079 9D27538040AD11DBBF97000C2911D1B8 vmkDiagnostic 0
7 7086080 15472639 EBD0A0A2B9E5443387C068B6B72699C7 linuxNative 0
 パーティションの最終セクタは 243201*255*63-1=3907024064 となります。
 パーティションの作成方法については、ESX および ESXi で partedUtil コマンドライン ユーティリティを使用する (1036609)を参照してください。
 パーティションを作成します。
 ※パーティションテーブルを作るためにはすべてのパーティションの定義を記述する必要がありますので注意してください。
[root@esxi:~] partedUtil setptbl "/dev/disks/naa.50014ee264f97931" gpt "1 64 8191 C12A7328F81F11D2BA4B00A0C93EC93B 128" "2 8224 520191 \
EBD0A0A2B9E5443387C068B6B72699C7 0" "3 520224 1032191 EBD0A0A2B 9E5443387C068B6B72699C7 0" "4 1032224 1257471 \
9D27538040AD11DBBF97000C2911D1B8 0" "5 1257504 1843199 EBD0A0A2B9E5443387C068B6B72699C7 0" "6 1843200 7086079 \ 
9D27538040AD11DBBF97000C2911D1B8 0" "7 7086080 15472639 EBD0A0A2B9E5443387C068B6B72699C7 0" "8 15472672 3907024064 \ 
AA31E02A400F11DB9590000C2911D1B8 0"
gpt
0 0 0 0
1 64 8191 C12A7328F81F11D2BA4B00A0C93EC93B 128
2 8224 520191 EBD0A0A2B9E5443387C068B6B72699C7 0
3 520224 1032191 EBD0A0A2B9E5443387C068B6B72699C7 0
4 1032224 1257471 9D27538040AD11DBBF97000C2911D1B8 0
5 1257504 1843199 EBD0A0A2B9E5443387C068B6B72699C7 0
6 1843200 7086079 9D27538040AD11DBBF97000C2911D1B8 0
7 7086080 15472639 EBD0A0A2B9E5443387C068B6B72699C7 0
8 15472672 3907024064 AA31E02A400F11DB9590000C2911D1B8 0
 パーティションが正常に作成されたかどうか確認します。
[root@esxi:~] partedUtil getptbl /dev/disks/naa.50014ee264f97931
gpt
243201 255 63 3907029168
1 64 8191 C12A7328F81F11D2BA4B00A0C93EC93B systemPartition 128
2 8224 520191 EBD0A0A2B9E5443387C068B6B72699C7 linuxNative 0
3 520224 1032191 EBD0A0A2B9E5443387C068B6B72699C7 linuxNative 0
4 1032224 1257471 9D27538040AD11DBBF97000C2911D1B8 vmkDiagnostic 0
5 1257504 1843199 EBD0A0A2B9E5443387C068B6B72699C7 linuxNative 0
6 1843200 7086079 9D27538040AD11DBBF97000C2911D1B8 vmkDiagnostic 0
7 7086080 15472639 EBD0A0A2B9E5443387C068B6B72699C7 linuxNative 0
8 15472672 3907024064 AA31E02A400F11DB9590000C2911D1B8 vmfs 0
 パーディーションをvmfsでフォーマットします。
[root@esxi:~] vmkfstools -C vmfs6 -S datastore1 /dev/disks/naa.50014ee264f97931:8
create fs deviceName:'/dev/disks/naa.50014ee264f97931:8', fsShortName:'vmfs6', fsName:'datastore1'
deviceFullPath:/dev/disks/naa.50014ee264f97931:8 deviceFile:naa.50014ee264f97931:8
ATS on device /dev/disks/naa.50014ee264f97931:8: not supported
.
Checking if remote hosts are using this device as a valid file system. This may take a few seconds...
Creating vmfs6 file system on "naa.50014ee264f97931:8" with blockSize 1048576, unmapGranularity 1048576, \
         unmapPriority default and volume label "datastore1".
Successfully created new volume: 5f1e77b6-6f38ed66-3a87-0004239f1916
 ディスク構成及び・・・を確認します。
[root@esxi:~] ls /dev/disks/
mpx.vmhba32:C0:T0:L0    naa.50014ee264f97931:6                                        vml.020000000050014ee264f97931574443205744:1
mpx.vmhba32:C0:T0:L0:1  naa.50014ee264f97931:7                                        vml.020000000050014ee264f97931574443205744:2
naa.50014ee057bbc824    naa.50014ee264f97931:8                                        vml.020000000050014ee264f97931574443205744:3
naa.50014ee057bbc824:1  naa.50014ee2ae008113                                          vml.020000000050014ee264f97931574443205744:4
naa.50014ee206cfd86b    naa.50014ee2ae008113:2                                        vml.020000000050014ee264f97931574443205744:5
naa.50014ee206cfd86b:2  vml.01000000003031323334353637383941424344454655534220746f    vml.020000000050014ee264f97931574443205744:6
naa.50014ee264f97931    vml.01000000003031323334353637383941424344454655534220746f:1  vml.020000000050014ee264f97931574443205744:7
naa.50014ee264f97931:1  vml.020000000050014ee057bbc824574443205744                    vml.020000000050014ee264f97931574443205744:8
naa.50014ee264f97931:2  vml.020000000050014ee057bbc824574443205744:1                  vml.020000000050014ee2ae008113574443205744
naa.50014ee264f97931:3  vml.020000000050014ee206cfd86b574443205744                    vml.020000000050014ee2ae008113574443205744:2
naa.50014ee264f97931:4  vml.020000000050014ee206cfd86b574443205744:2
naa.50014ee264f97931:5  vml.020000000050014ee264f97931574443205744

[root@esxi:~] ls /vmfs/volumes/
0bb21b7f-d5ec4ea2-5b29-24d3ab793a1e  5f105485-9c734bc6-5j77-008e9339f1916
4f725e6f-9aeeef1e-d099-0004239f1916  datastore1
4k8d5e78-43b5dj89-10jd-09d8d39f1916  datastore2
4f725e79-240ed2ba-3f09-0004239f1916  datastore3
5a99d734-a9d8c269-d983-0983439f1916  fadf237a-b9315aaf-4cf6-1e27a5c132f1
[root@esxi:~] ls /vmfs/volumes/datastore1
[root@esxi:~] ls -l /vmfs/volumes/
total 4096
  :  
lrwxr-xr-x    1 root     root            35 Jul 27 07:14 datastore1 -> 5f1e77b6-6f38ed66-3a87-0004239f1916
 VMware Host Clientで確認しても問題ありませんでした。
 ただし、パーティションの最終セクタは 243201*255*63-1=3907024064 としたのが原因なのか不明ですが、VMware Host Clientでは空き容量 (2.49 MB)が表示されていました。

●コマンドによる操作

 参考URL:VMware ESX仮想マシンをコマンドで操作
 参考URL:VMware ESXi vim-cmd Command: A Quick Tutorial
 参考URL:vimsh (vim-cmd) コマンドリファレンスA
 参考URL:VMware ESXi 6 esxcliコマンドでネットワーク情報の取得

●仮想マシンをコマンドでコピーする方法

 参考URL:ESX6.5で仮想マシンをコピーする
 参考URL:シンvmdkをサイズそのままでコピーする

 今回はfedora30-2という仮想マシンをfedora30-1という仮想マシンとして利用できるように作業します。

 コピー先側のディレクトリは事前に作成しておく必要があります。
 そのディレクトリ内に関連ファイルが存在しているとコピーができませんので注意してください。
 仮想マシンのコピー等を実施する場合、最初に仮想ディスクのコピー作業を最初に実施し、その作業が終了後その他のファイルをコピーしてください。
エラーの内容

Destination disk format: VMFS thin-provisioned
Cloning disk '/vmfs/volumes/datastore1/win2016-11/win2016-11.vmdk'...
Failed to clone disk: The file already exists (39).
 このエラーが表示されても何が原因が分かりにくいので注意が必要です。

 sshでESXiホストにログインします。
[root@esxi ~]# ssh vmware
Password: 
The time and date of this login have been sent to the system logs.
VMware offers supported, powerful system administration tools.  Please
see www.vmware.com/go/sysadmintools for details.
The ESXi Shell can be disabled by an administrative user. See the
vSphere Security documentation for more information.
[root@esxi:~]
 ログインできましたので、fedora30-1フォルダをストレージ上に作成します。
[root@esxi:~] cd /vmfs/volumes/datastore1/
[root@esxi:/vmfs/volumes/5a629245-e8c6afa7-8c4c-0004239f1916] mkdir fedora30-1
[root@esxi:/vmfs/volumes/5a629245-e8c6afa7-8c4c-0004239f1916] ls
fedora30-1  fedora30-2  isoimages   win10     win2016
 各仮想マシンのディレクトリ等を確認することができます。
 fedora30-2の仮想ディスクをfedora30-1の仮想ディスクとしてクローニングします。
# シン・プロビジョニングで仮想ディスクを作成
[root@esxi:/vmfs/volumes/5a629245-e8c6afa7-8c4c-0004239f1916] 
vmkfstools -i ./fedora30-2/fedora30-2_0.vmdk ./fedora30-1/fedora30-1_0.vmdk -d thin ← 実行コマンド
Destination disk format: VMFS thin-provisioned
Cloning disk './fedora30-2/fedora30-2_0.vmdk'...
Clone: 2% done.
 しばらく時間がかかりますのでゆっくり待ちましょう。
 次に、vmxファイルを新しいfedora30-1.vmxという名前でコピーしてviで編集します。
[root@esxi:/vmfs/volumes/5a629245-e8c6afa7-8c4c-0004239f1916] cp ./fedora30-2/fedora30-2.vmx ./fedora30-1/fedora30-1.vmx
# コピーしたvmxファイルを編集
# 下記の例では、fedora30-2をfedora30-1に一括変換
[root@esxi:/vmfs/volumes/5a629245-e8c6afa7-8c4c-0004239f1916] vi ./fedora30-1/fedora30-1.vmx
:%s/fedora30-2/fedora30-1/g
 最後に、ログファイル以外をすべてnode02ディレクトリへコピーします。
# ログファイル以外のファイルをコピーしてリネーム
[root@esxi:/vmfs/volumes/5a629245-e8c6afa7-8c4c-0004239f1916] cp ./fedora30-2/fedora30-2.nvram ./fedora30-1/fedora30-1.nvram
[root@esxi:/vmfs/volumes/5a629245-e8c6afa7-8c4c-0004239f1916] cp ./fedora30-2/fedora30-2.vmsd ./fedora30-1/fedora30-1.vmsd
 全て完了したら仮想マシンとして登録します。
[root@esxi:/vmfs/volumes/5a629245-e8c6afa7-8c4c-0004239f1916] vim-cmd solo/registervm /vmfs/volumes/datastore1/fedora30-1/fedora30-1.vmx
29
 これでクローニング作業は完了です。問題なく仮想マシンが起動すれば正常です。
 仮想マシンが正常に起動しない場合、コピーしたファイル等を削除するなりして再度トライしてください。

●VMware上の仮想OSであるWindowsマシンのキーボードレイアウトを英語配列(US配列)から日本語配列(106JP配列)に修正する方法

 参考URL:【未解決】【決定版…にしたいので助けてください】キーボードレイアウトを日本語にする

 ここずっと何年も解決できなかったVMware上で動作する、Windowsのキーボード配列を日本語配列(106JP配列)にすることができました。
 設定条件としては、「設定」-「時刻と地域」-「地域と言語」-「言語」で「日本語」が設定されており、その「日本語」をクリックした後に更に「オプション」をクリックし、「キーボードレイアウト」が「日本語キーボード(106/109キー)」で既に設定されている場合となります。
 この条件時に下記の値を変更すると日本語キーボードとして認識されるようになり、@や\を想定とおり入力できるようになります。

 レジストリエディタを起動し、下記の値を変更します。
HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Control\Keyboard Layouts\00000411
KBDJPN.DLL → KBD106.DLL
 再起動後、問題が解消されました。

●cactiによるVMwareの監視

 参考URL:Cactiを使用したVMwareの監視

 VMwareにSSHでログイン後、SNMPを動作させます。
# ssh vmware -l root
[root@esxi:~] esxcli system snmp set --communities public
[root@esxi:~] esxcli system snmp set --syscontact="bigbang"
[root@esxi:~] esxcli system snmp set --syslocation="bigbang"
[root@esxi:~] esxcli system snmp set --enable true
[root@esxi:~] exit
 VMware上でSNMPが正常に動作しているか確認します。
[root@esxi:~] /etc/init.d/snmpd status
snmpd is running
 設定内容は下記コマンドで確認できます。
[root@esxi:~] esxcli system snmp get
 仮想ホスト上以外からSNMP情報を取得するにはFirewallを設定します。
[root@esxi:~] esxcli network firewall ruleset set --ruleset-id snmp --allowed-all true
[root@esxi:~] esxcli network firewall ruleset set --ruleset-id snmp --enabled true
 Firewallのルールセットは下記コマンドで確認できます。
[root@esxi:~] esxcli network firewall ruleset list
 Cactiサーバで下記コマンドを実行し、SNMP情報を取得できるか確認します。
# snmpwalk -v2c -c public <VMware ESXiのIPアドレス>
SNMPv2-MIB::sysDescr.0 = STRING: VMware ESXi 7.*.* build-******** VMware, Inc. x86_64
SNMPv2-MIB::sysObjectID.0 = OID: SNMPv2-SMI::enterprises.6876.4.1
DISMAN-EVENT-MIB::sysUpTimeInstance = Timeticks: (27800) 0:04:38.00
SNMPv2-MIB::sysContact.0 = STRING: **********
SNMPv2-MIB::sysName.0 = STRING: vmware-server.bigbang.mydns.jp
 :
 :
(以下、省略)


●SNMP Trapを有効にする方法

 参考URL:snmpd.conf 設定方法 (拡張MIBファイルの導入方法)
 参考URL:[VMware] ESXi 6.7 で SNMP Trap 設定を有効にする

 想定しているサーバは下記のとおりです。
  • SNMPマネージャー:CentOS 7
    IPアドレス:192.168.0.5
  • SNMPエージェント:VMware ESXi 6.7
    IPアドレス: 192.168.0.98
  • SNMPコミュニティ名: public
 SNMP Trapを受信するためのマネージャー側の設定は完了しているものとします。
 SNMP Trapの設定にはESXiにSSHで接続する必要がありますので、VMware Host ClientからESXiに接続し、SSHとESXiシェルのサービスを起動しておきます。
 現状を確認します。
[root@vmware:~] esxcli system snmp get
   Authentication: 
   Communities: 
   Enable: false
   Engineid: 
   Hwsrc: indications
   Largestorage: true
   Loglevel: warning
   Notraps: 
   Port: 161
   Privacy: 
   Remoteusers: 
   Syscontact: 
   Syslocation: 
   Targets: 
   Users: 
   V3targets: 
 「Enable: false」となっていますのでサービスは起動していません。
 Trapするように設定します。
[root@vmware:~] esxcli system snmp set -e=true -c=public -t=192.168.0.5@162/public
 設定を確認します。
   Authentication: 
   Communities: public
   Enable: true
   Engineid: 80001ADC0511035544663958372990
   Hwsrc: indications
   Largestorage: true
   Loglevel: warning
   Notraps: 
   Port: 161
   Privacy: 
   Remoteusers: 
   Syscontact: 
   Syslocation: 
   Targets: 192.168.0.5@162 public
   Users: 
   V3targets: 
 「Enable: true」になり、サービスが起動していることが分かります。
 トラップの試験をしてみます。
[root@vmware:~] esxcli system snmp test
   Comments: There is 1 target configured, send warmStart requested, test completed normally.
 SNMPマネージャのログを確認します。

[root@inu ~]# grep "snmptrapd" /var/log/messages
Jun 24 15:46:45 inu snmptrapd[1660]: 2021-06-24 15:46:45 192.168.0.98 (via UDP: [192.168.0.98]:10938->[192.168.0.5]:162) TRAP, SNMP v1, community public#012#011SNMPv2-MIB::snmpTraps Warm Start Trap (0) Uptime: 0:36:29.00

 正常に受信できています。

●VMware用のMIBの設定

 参考URL:Vmwareのsnmpの拡張MIBを設定する
 参考URL:VMware ESXi SNMPの設定

 snmpwalkコマンドなどの取得した結果が数字の羅列でよくわからない場合があるので、MIB情報をインストールします。
 VMwareの最新のMIB情報はこちらのあります。
# cd /tmp
# wget 
# unzip 1013445_VMware-mibs-6.7.A-13605115.zip
# mkdir -P ~/.snmp/mibs
# mv /tmp/vmw/* /usr/share/snmp/mibs
 トラップを使用している場合には、下記のように実行します。
# /etc/rc.d/init.d/snmptrapd restart


●VMware Esxiのアップデート方法

 参考URL:[VMware] ESXi 6.5 から 6.7 へアップデートし最新のパッチを適用する
 参考URL:VMware ESXiに重大な脆弱性、アップデートを
 参考URL:ESXi Version 6.7.0 History

 2020年4月28日にVMware ESXiに重大な脆弱性について情報が公開(脆弱性は深刻度が重大(Important)に分類)されました。
 アップデートを実施したときの方法をメモとして残しておきます。
 パッチ情報はVMSA-2020-0008に記載されています。
 ESXiのバージョンを確認後、「Fixed Version」のリンクをクリックしアカウント情報を入力しダウンロードします。
 今回は下記で選択しました。

 Select a Product:ESXi (Embedded and Installable)
 Select Version:6.7.0

 その後「Search」をクリックすると各種パッチが表示されます。
 今回適用するパッチは最新のパッチですので「ESXi670-202004002」をダウンロードします。
 ダウンロードしたファイルをESXiのデータストアへアップロードします。
 今回は「update」というフォルダを作成し、そこにWinSCPを使用してアップロードしました。
 アップデート対象のESXiで稼働するすべての仮想マシンを停止します。
 その後、GUIでメンテナンスモードへと切り替えます。

vmware-update-01.jpg

 ESXiに対し、SSH接続するので「アクション」-「サービス」で「SSHの有効化」と「コンソールシェルの有効化」をします。
 下図は既にSSH及びコンソールシェルが有効化が有効化であるため、無効化として表示されています。

vmware-update-02.jpg

 ESXiにログインできたらまずは現在のビルド番号などを確認しておきます。
[root@esxi:~] esxcli system version get
   Product: VMware ESXi
   Version: 6.7.0
   Build: Releasebuild-15820472
   Update: 3
   Patch: 94
 アップデートモジュール内のプロファイルを確認します。通常はこの中の -standard がつくものを使用します。
[root@esxi:~] esxcli software sources profile list --depot=/vmfs/volumes/<データストア名>/<フォルダ>/<アップデートモジュール>
 実際のコマンド
[root@esxi:~] esxcli software sources profile list --depot=/vmfs/volumes/datastore1/update/ESXi670-202004002.zip 
Name                              Vendor        Acceptance Level  Creation Time        Modification Time
--------------------------------  ------------  ----------------  -------------------  -------------------
ESXi-6.7.0-20200404001-standard   VMware, Inc.  PartnerSupported  2020-04-21T06:45:59  2020-04-21T06:45:59
ESXi-6.7.0-20200404001-no-tools   VMware, Inc.  PartnerSupported  2020-04-21T06:45:59  2020-04-21T06:45:59
ESXi-6.7.0-20200401001s-standard  VMware, Inc.  PartnerSupported  2020-04-21T06:45:59  2020-04-21T06:45:59
ESXi-6.7.0-20200401001s-no-tools  VMware, Inc.  PartnerSupported  2020-04-21T06:45:59  2020-04-21T06:45:59
 各プロファイルの意味は下記のとおりです。
  • 末尾が「-standard」
  • 標準イメージプロファイル
  • 末尾が「-no-toosl」
  • no-tools イメージプロファイル
  • 末尾が「s-standard」
  • セキュリティ更新のみを含むイメージプロファイル
  • 末尾が「s-no-tools」
  • セキュリティ更新のみのno-tools イメージプロファイル
 プロファイルを選択してアップデートします。
esxcli software profile update --profile=<プロファイル> --depot=/vmfs/volumes/<データストア名>/<フォルダ>/<アップデートモジュール> | more
 メッセージに The update completed successfully と表示されれば成功です。

 実際のコマンド
[root@esxi:~] esxcli software profile update --profile=ESXi-6.7.0-20200404001-standard --depot=/vmfs/volumes/datastore1/update/ESXi670-202004002.zip | more
Update Result
   Message: The update completed successfully, but the system needs to be rebooted for the changes to be effective.
   Reboot Required: true
 適用が終わったらESXiを再起動してビルド番号などを確認します。
 再起動するとSSHの有効化とコンソールシェルの有効化がリセットされてしまうことがあるので注意が必要です。
 正常にBuild Number:16075168へアップデートされました。
[root@esxi:~] esxcli system version get
   Product: VMware ESXi
   Version: 6.7.0
   Build: Releasebuild-16075168
   Update: 3
   Patch: 104


●アップデート時にHardwareErrorと表示された場合の対処

 参考URL:Vmware ESXi に関する覚え書き
 参考URL:ESXiマイナーバージョンアップ

 アップデート実行時に下記のようなエラーが表示される場合があります。
 これは、自作のハードウェアや使用しているサーバの一部のハードウェアが古い等の理由でサポート対象外の時に表示されます。
 2021年にヤフオクで落札したPrecision 5820 Towerでは、HardwareErrorが表示されました。
 ハードウェア環境によっては、動作しなくなる場合があるかもしれませんのでご注意下さい。

[HardwareError]
Hardware precheck of profile ESXi-7.0U3j-21053776-standard failed with warnings: <UNSUPPORTED_DEVICES WARNING: This host has unsupported devices [<PciInfo 'Ethernet controller [8086:105e 8086:115e]'>, <PciInfo 'Ethernet controller [8086:105e 8086:115e]'>]>

Apply --no-hardware-warning option to ignore the warnings and proceed with the transaction. Please refer to the log file for more details.


 対処するには、サポート有無を無視ということで「--no-hardware-warning」オプションでバージョンアップすることができます。

[root@vmware2:~] esxcli software profile update --no-hardware-warning --profile=ESXi-7.0U3j-21053776-standard --depot=/vmfs/volumes/datastore1/VMware-ESXi-7.0U3j-21053776-depot.zip | more
Update Result
Message: The update completed successfully, but the system needs to be rebooted for the changes to be effective.
Reboot Required: true
VIBs Installed: VMW_bootbank_atlantic_1.0.3.0-8vmw.703.0.20.19193900, VMW_bootbank_bnxtnet_216.0.50.0-44vmw.703.0.50.20036589, VMW_bootbank_bnxtroce_216.0.58.0-23vmw.703.0.50.20036589, VMW_bootbank_brcmfcoe_12.0.1500.2-3vmw.703.0.20.19193900, VMW_bootbank_elxiscsi_12.0.1200.0-9vmw.703.0.20.19193900, VMW_bootbank_elxnet_12.0.1250.0-5vmw.703.0.20.19193900, VMW_bootbank_i40en_1.11.1.31-1vmw.703.0.20.19193900, VMW_bootbank_iavmd_2.7.0.1157-2vmw.703.0.20.19193900, VMW_bootbank_icen_1.4.1.20-1vmw.703.0.50.20036589, VMW_bootbank_igbn_1.4.11.2-1vmw.703.0.20.19193900, VMW_bootbank_ionic-en_16.0.0-16vmw.703.0.20.19193900, VMW_bootbank_irdman_1.3.1.22-1vmw.703.0.50.20036589, VMW_bootbank_iser_1.1.0.1-1vmw.703.0.50.20036589, VMW_bootbank_ixgben_1.7.1.35-1vmw.703.0.20.19193900, VMW_bootbank_lpfc_14.0.169.26-5vmw.703.0.50.20036589, VMW_bootbank_lpnic_11.4.62.0-1vmw.703.0.20.19193900, VMW_bootbank_lsi-mr3_7.718.02.00-1vmw.703.0.20.19193900, VMW_bootbank_lsi-msgpt2_20.00.06.00-4vmw.703.0.20.19193900, VMW_bootbank_lsi-msgpt35_19.00.02.00-1vmw.703.0.20.19193900, VMW_bootbank_lsi-msgpt3_17.00.12.00-1vmw.703.0.20.19193900, VMW_bootbank_mtip32xx-native_3.9.8-1vmw.703.0.20.19193900, VMW_bootbank_ne1000_0.9.0-1vmw.703.0.50.20036589, VMW_bootbank_nenic_1.0.33.0-1vmw.703.0.20.19193900, VMW_bootbank_nfnic_4.0.0.70-1vmw.703.0.20.19193900, VMW_bootbank_nhpsa_70.0051.0.100-4vmw.703.0.20.19193900, VMW_bootbank_nmlx4-core_3.19.16.8-2vmw.703.0.20.19193900, VMW_bootbank_nmlx4-en_3.19.16.8-2vmw.703.0.20.19193900, VMW_bootbank_nmlx4-rdma_3.19.16.8-2vmw.703.0.20.19193900, VMW_bootbank_nmlx5-core_4.19.16.11-1vmw.703.0.20.19193900, VMW_bootbank_nmlx5-rdma_4.19.16.11-1vmw.703.0.20.19193900, VMW_bootbank_ntg3_4.1.8.0-4vmw.703.0.65.20842708, VMW_bootbank_nvme-pcie_1.2.3.16-1vmw.703.0.20.19193900, VMW_bootbank_nvmerdma_1.0.3.5-1vmw.703.0.20.19193900, VMW_bootbank_nvmetcp_1.0.0.1-1vmw.703.0.35.19482537, VMW_bootbank_nvmxnet3-ens_2.0.0.22-1vmw.703.0.20.19193900, VMW_bootbank_nvmxnet3_2.0.0.30-1vmw.703.0.20.19193900, VMW_bootbank_pvscsi_0.1-4vmw.703.0.20.19193900, VMW_bootbank_qcnic_1.0.15.0-14vmw.703.0.20.19193900, VMW_bootbank_qedentv_3.40.5.53-22vmw.703.0.20.19193900, VMW_bootbank_qedrntv_3.40.5.53-18vmw.703.0.20.19193900, VMW_bootbank_qfle3_1.0.67.0-22vmw.703.0.20.19193900, VMW_bootbank_qfle3f_1.0.51.0-22vmw.703.0.20.19193900, VMW_bootbank_qfle3i_1.0.15.0-15vmw.703.0.20.19193900, VMW_bootbank_qflge_1.1.0.11-1vmw.703.0.20.19193900, VMW_bootbank_rste_2.0.2.0088-7vmw.703.0.20.19193900, VMW_bootbank_sfvmk_2.4.0.2010-6vmw.703.0.20.19193900, VMW_bootbank_smartpqi_70.4149.0.5000-1vmw.703.0.20.19193900, VMW_bootbank_vmkata_0.1-1vmw.703.0.20.19193900, VMW_bootbank_vmkfcoe_1.0.0.2-1vmw.703.0.20.19193900, VMW_bootbank_vmkusb_0.1-7vmw.703.0.50.20036589, VMW_bootbank_vmw-ahci_2.0.11-1vmw.703.0.20.19193900, VMware_bootbank_bmcal_7.0.3-0.70.21053776, VMware_bootbank_cpu-microcode_7.0.3-0.70.21053776, VMware_bootbank_crx_7.0.3-0.70.21053776, VMware_bootbank_elx-esx-libelxima.so_12.0.1200.0-4vmw.703.0.20.19193900, VMware_bootbank_esx-base_7.0.3-0.70.21053776, VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.3-0.70.21053776, VMware_bootbank_esx-ui_2.1.1-20188605, VMware_bootbank_esx-update_7.0.3-0.70.21053776, VMware_bootbank_esx-xserver_7.0.3-0.70.21053776, VMware_bootbank_esxio-combiner_7.0.3-0.70.21053776, VMware_bootbank_gc_7.0.3-0.70.21053776, VMware_bootbank_loadesx_7.0.3-0.70.21053776, VMware_bootbank_lsuv2-hpv2-hpsa-plugin_1.0.0-3vmw.703.0.20.19193900, VMware_bootbank_lsuv2-intelv2-nvme-vmd-plugin_2.7.2173-1vmw.703.0.20.19193900, VMware_bootbank_lsuv2-lsiv2-drivers-plugin_1.0.0-12vmw.703.0.50.20036589, VMware_bootbank_lsuv2-nvme-pcie-plugin_1.0.0-1vmw.703.0.20.19193900, VMware_bootbank_lsuv2-oem-dell-plugin_1.0.0-1vmw.703.0.20.19193900, VMware_bootbank_lsuv2-oem-hp-plugin_1.0.0-1vmw.703.0.20.19193900, VMware_bootbank_lsuv2-oem-lenovo-plugin_1.0.0-1vmw.703.0.20.19193900, VMware_bootbank_lsuv2-smartpqiv2-plugin_1.0.0-8vmw.703.0.20.19193900, VMware_bootbank_native-misc-drivers_7.0.3-0.70.21053776, VMware_bootbank_qlnativefc_4.1.14.0-26vmw.703.0.20.19193900, VMware_bootbank_trx_7.0.3-0.70.21053776, VMware_bootbank_vdfs_7.0.3-0.70.21053776, VMware_bootbank_vmware-esx-esxcli-nvme-plugin_1.2.0.44-1vmw.703.0.20.19193900, VMware_bootbank_vsan_7.0.3-0.70.21053776, VMware_bootbank_vsanhealth_7.0.3-0.70.21053776, VMware_locker_tools-light_12.1.0.20219665-20841705
VIBs Removed: VMW_bootbank_atlantic_1.0.3.0-8vmw.702.0.0.17867351, VMW_bootbank_bnxtnet_216.0.50.0-34vmw.702.0.0.17867351, VMW_bootbank_bnxtroce_216.0.58.0-19vmw.702.0.0.17867351, VMW_bootbank_brcmfcoe_12.0.1500.1-2vmw.702.0.0.17867351, VMW_bootbank_brcmnvmefc_12.8.298.1-1vmw.702.0.0.17867351, VMW_bootbank_elxiscsi_12.0.1200.0-8vmw.702.0.0.17867351, VMW_bootbank_elxnet_12.0.1250.0-5vmw.702.0.0.17867351, VMW_bootbank_i40enu_1.8.1.136-1vmw.702.0.0.17867351, VMW_bootbank_iavmd_2.0.0.1152-1vmw.702.0.0.17867351, VMW_bootbank_icen_1.0.0.10-1vmw.702.0.0.17867351, VMW_bootbank_igbn_1.4.11.2-1vmw.702.0.0.17867351, VMW_bootbank_irdman_1.3.1.19-1vmw.702.0.0.17867351, VMW_bootbank_iser_1.1.0.1-1vmw.702.0.0.17867351, VMW_bootbank_ixgben_1.7.1.35-1vmw.702.0.0.17867351, VMW_bootbank_lpfc_12.8.298.3-1vmw.702.0.0.17867351, VMW_bootbank_lpnic_11.4.62.0-1vmw.702.0.0.17867351, VMW_bootbank_lsi-mr3_7.716.03.00-1vmw.702.0.0.17867351, VMW_bootbank_lsi-msgpt2_20.00.06.00-3vmw.702.0.0.17867351, VMW_bootbank_lsi-msgpt35_17.00.02.00-1vmw.702.0.0.17867351, VMW_bootbank_lsi-msgpt3_17.00.10.00-2vmw.702.0.0.17867351, VMW_bootbank_mtip32xx-native_3.9.8-1vmw.702.0.0.17867351, VMW_bootbank_ne1000_0.8.4-11vmw.702.0.0.17867351, VMW_bootbank_nenic_1.0.33.0-1vmw.702.0.0.17867351, VMW_bootbank_nfnic_4.0.0.63-1vmw.702.0.0.17867351, VMW_bootbank_nhpsa_70.0051.0.100-2vmw.702.0.0.17867351, VMW_bootbank_nmlx4-core_3.19.16.8-2vmw.702.0.0.17867351, VMW_bootbank_nmlx4-en_3.19.16.8-2vmw.702.0.0.17867351, VMW_bootbank_nmlx4-rdma_3.19.16.8-2vmw.702.0.0.17867351, VMW_bootbank_nmlx5-core_4.19.16.10-1vmw.702.0.0.17867351, VMW_bootbank_nmlx5-rdma_4.19.16.10-1vmw.702.0.0.17867351, VMW_bootbank_ntg3_4.1.5.0-0vmw.702.0.0.17867351, VMW_bootbank_nvme-pcie_1.2.3.11-1vmw.702.0.0.17867351, VMW_bootbank_nvmerdma_1.0.2.1-1vmw.702.0.0.17867351, VMW_bootbank_nvmxnet3-ens_2.0.0.22-1vmw.702.0.0.17867351, VMW_bootbank_nvmxnet3_2.0.0.30-1vmw.702.0.0.17867351, VMW_bootbank_pvscsi_0.1-2vmw.702.0.0.17867351, VMW_bootbank_qcnic_1.0.15.0-11vmw.702.0.0.17867351, VMW_bootbank_qedentv_3.40.5.53-20vmw.702.0.0.17867351, VMW_bootbank_qedrntv_3.40.5.53-16vmw.702.0.0.17867351, VMW_bootbank_qfle3_1.0.67.0-14vmw.702.0.0.17867351, VMW_bootbank_qfle3f_1.0.51.0-19vmw.702.0.0.17867351, VMW_bootbank_qfle3i_1.0.15.0-12vmw.702.0.0.17867351, VMW_bootbank_qflge_1.1.0.11-1vmw.702.0.0.17867351, VMW_bootbank_rste_2.0.2.0088-7vmw.702.0.0.17867351, VMW_bootbank_sfvmk_2.4.0.2010-4vmw.702.0.0.17867351, VMW_bootbank_smartpqi_70.4000.0.100-6vmw.702.0.0.17867351, VMW_bootbank_vmkata_0.1-1vmw.702.0.0.17867351, VMW_bootbank_vmkfcoe_1.0.0.2-1vmw.702.0.0.17867351, VMW_bootbank_vmkusb_0.1-1vmw.702.0.0.17867351, VMW_bootbank_vmw-ahci_2.0.9-1vmw.702.0.0.17867351, VMware_bootbank_clusterstore_7.0.2-0.0.17867351, VMware_bootbank_cpu-microcode_7.0.2-0.0.17867351, VMware_bootbank_crx_7.0.2-0.0.17867351, VMware_bootbank_elx-esx-libelxima.so_12.0.1200.0-4vmw.702.0.0.17867351, VMware_bootbank_esx-base_7.0.2-0.0.17867351, VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.2-0.0.17867351, VMware_bootbank_esx-ui_1.34.8-17417756, VMware_bootbank_esx-update_7.0.2-0.0.17867351, VMware_bootbank_esx-xserver_7.0.2-0.0.17867351, VMware_bootbank_gc_7.0.2-0.0.17867351, VMware_bootbank_loadesx_7.0.2-0.0.17867351, VMware_bootbank_lsuv2-hpv2-hpsa-plugin_1.0.0-3vmw.702.0.0.17867351, VMware_bootbank_lsuv2-intelv2-nvme-vmd-plugin_2.0.0-2vmw.702.0.0.17867351, VMware_bootbank_lsuv2-lsiv2-drivers-plugin_1.0.0-5vmw.702.0.0.17867351, VMware_bootbank_lsuv2-nvme-pcie-plugin_1.0.0-1vmw.702.0.0.17867351, VMware_bootbank_lsuv2-oem-dell-plugin_1.0.0-1vmw.702.0.0.17867351, VMware_bootbank_lsuv2-oem-hp-plugin_1.0.0-1vmw.702.0.0.17867351, VMware_bootbank_lsuv2-oem-lenovo-plugin_1.0.0-1vmw.702.0.0.17867351, VMware_bootbank_lsuv2-smartpqiv2-plugin_1.0.0-6vmw.702.0.0.17867351, VMware_bootbank_native-misc-drivers_7.0.2-0.0.17867351, VMware_bootbank_qlnativefc_4.1.14.0-5vmw.702.0.0.17867351, VMware_bootbank_vdfs_7.0.2-0.0.17867351, VMware_bootbank_vmware-esx-esxcli-nvme-plugin_1.2.0.42-1vmw.702.0.0.17867351, VMware_bootbank_vsan_7.0.2-0.0.17867351, VMware_bootbank_vsanhealth_7.0.2-0.0.17867351, VMware_locker_tools-light_11.2.5.17337674-17867351
VIBs Skipped:


 「Reboot Required: true」と出力されていますので、rebootします。
[root@vmware2:~] reboot
 起動後、バージョンを確認します。
[root@vmware2:~] esxcli system version get
   Product: VMware ESXi
   Version: 7.0.3
   Build: Releasebuild-21053776
   Update: 3
   Patch: 70
 「--no-hardware-warning」オプションでバージョンアップしましたが、これまで正常に動作していたVMは問題なく動作することを確認できました。

●ESXi 6.7u3においてNVMe SSDのS.M.A.R.Tの値がおかしい

 参考URL: ESXi 6.7u3においてNVMe SSDのS.M.A.R.Tの値がおかしい

 VMware ESXi 6.7u3で下記のようなログが30分ごとにsyslogで記録されます。
Mar 17 00:22:43 vserverA smartd: [warn] ****************8113: REALLOCATED SECTOR CT below threshold (0 < 140)
Mar 17 00:22:43 vserverA smartd: [warn] ****************d86b: REALLOCATED SECTOR CT below threshold (0 < 140)
Mar 17 00:22:43 vserverA smartd: [warn] ****************ef11: REALLOCATED SECTOR CT below threshold (0 < 140)
Mar 17 00:22:44 vserverA smartd: [warn] ****************c824: REALLOCATED SECTOR CT below threshold (1 < 140)
Mar 17 00:52:44 vserverA smartd: [warn] ****************8113: REALLOCATED SECTOR CT below threshold (0 < 140)
Mar 17 00:52:44 vserverA smartd: [warn] ****************d86b: REALLOCATED SECTOR CT below threshold (0 < 140)
Mar 17 00:52:44 vserverA smartd: [warn] ****************ef11: REALLOCATED SECTOR CT below threshold (0 < 140)
Mar 17 00:52:44 vserverA smartd: [warn] ****************c824: REALLOCATED SECTOR CT below threshold (1 < 140)
 esxcliコマンドで確認してみます。
esxcli storage core device smart get -d ****************8113
Parameter                     Value  Threshold  Worst
----------------------------  -----  ---------  -----
Health Status                 OK     N/A        N/A
Media Wearout Indicator       N/A    N/A        N/A
Write Error Count             126    0          N/A
Read Error Count              0      51         N/A
Power-on Hours                59     0          59
Power Cycle Count             113    0          N/A
Reallocated Sector Count      0      140        N/A
Raw Read Error Rate           0      51         N/A
Drive Temperature             37     0          N/A
Driver Rated Max Temperature  N/A    N/A        N/A
Write Sectors TOT Count       N/A    N/A        N/A
Read Sectors TOT Count        N/A    N/A        N/A
Initial Bad Block Count       N/A    N/A        N/A
 30 分間隔のログなので無視するか、個人環境等で鬱陶しく止めても問題ないのであれば、smartdを止めてしまっても良いのかもしれません。

●ESXi CLIを使用した移行後のVMFSボリュームの再マウント

 参考URL:ESXi CLI を使用した移行後の VMFS ボリュームの再マウント

 ワークステーション更新のため、ハードディスクをそのまま移行しました。
 新ハードウェアでハイパーバイザーは問題なく起動したのですが、これまで使用してきた別HDDのVMFSボリュームのデータストアが認識されずに悩んでいました。
 ハイパーバイザーに再認識させる方法が分かりましたので記載します。 
 SSHを使用して、ESXiサーバコにログインします。
 新しく追加されたLUNと既存のVMFS署名およびVMFSラベルを表示します。
[root@vmware:~] esxcfg-volume -l
Scanning for VMFS-6 host activity (4096 bytes/HB, 1024 HBs).
VMFS UUID/label: 5f105485-9c734bc6-5b77-008e9339f1916/datastore3 (1)
Can mount: Yes
Can resignature: Yes
Extent name: t10.ATA_____WDC_WD20EARS2D00MVWB0_________________________WD2DWMAZA0566002:1	range: 0 - 1907455 (MB)

Scanning for VMFS-6 host activity (4096 bytes/HB, 1024 HBs).
VMFS UUID/label: 4f8d5e78-43b5d891-105d-09d8d39f1916/datastore1 (1)
Can mount: Yes
Can resignature: Yes
Extent name: t10.ATA_____WDC_WD20EFAX2D68FB5N0_________________________WD2DWXH2A90DXPL5:3	range: 0 - 1900031 (MB)

Scanning for VMFS-3/VMFS-5 host activity (512 bytes/HB, 2048 HBs).
VMFS UUID/label: 5a99d734-a9d8c269-d983-0983439f1916/datastore2 (1)
Can mount: Yes
Can resignature: Yes
Extent name: t10.ATA_____WDC_WD20EADS2D00R6B0__________________________WD2DWCAVY0829391:2	range: 0 - 1907711 (MB)
Extent name: t10.ATA_____WDC_WD20EARX2D00PASB0_________________________WD2DWMAZA7910179:2	range: 1907712 - 3815423 (MB)
 同じ署名を使用して VMFS ボリュームを永続的に再マウントします。
[root@vmware:~] esxcfg-volume --persistent-mount 5f105485-9c734bc6-5b77-008e9339f1916 datastore3
Persistently mounting volume 5f105485-9c734bc6-5j77-008e9339f1916
[root@vmware:~] esxcfg-volume --persistent-mount 4f8d5e78-43b5d891-105d-09d8d39f1916 datastore1
Persistently mounting volume 4k8d5e78-43b5dj89-10jd-09d8d39f1916
[root@vmware:~] esxcfg-volume --persistent-mount 5a99d734-a9d8c269-d983-0983439f1916 datastore2
Persistently mounting volume 5a99d734-a9d8c269-d983-0983439f1916
 vSphere WebClientでログインすると、上記の場合、データストアが3つ作成されている(datastore1 (1)、datastore2 (1)、datastore3 (1))ことが確認できました。
 データストア名の「 (1)」が邪魔なので、WebClientで該当部分を削除しました。

●Rocky Linux 8.4のインストールDVDが認識しない

 参考URL:【RockyLinux】ダウンロードとインストール(VMware環境)まで

 VMware Esxi 7.0にRocky Linux 8.4を新規作成してインストールしようとしたところ、「EFI VMware Virtual SATA CDROM Drive (0.0)… Not Found.」が表示されインストールできませんでした。
 原因は、新規仮想マシン作成時に「起動オプション」のセキュアブートのチェックを外す必要があるということでした。
 Rocky Linux 8.5以降は、上記を気にすること無くインストールできるようになりました。