Dans le but de pouvoir stopper proprement un hyperviseur VMware et ses machines virtuelles en cas d’alerte onduleur, voici une solution pour intégrer un client NUT (Network UPS Tools) natif à vSphere Hypervisor (ESXi 5.0, 5.1, 5.5, 6.0, 6.5, 6.7, 7.0, 8.0 testés). Le client NUT est installé dans l’hyperviseur et peut être contrôlé et paramétré depuis l’interface de configuration de ESXi ou depuis le vCenter s’il est géré.
Réflexion du 30/05/2024 : Broadcom a racheté VMware et a fait un grand ménage dans les formules commerciales. La plus impactante pour ce projet est l’arrêt des licences gratuites pour ESXi. Aujourd’hui les versions 7 et 8 sont celles qui continuaient d’être activement supportées par VMware. Aussi longtemps que je serai en mesure d’exécuter ESXi dans mon lab je continuerai de mettre à jour le client NUT pour ESXi.
Mise en garde 01/11/2023 : Sous ESXi 8.0 et à partir de la version 2.5.0 du client Nut, dans l’interface client HTML, vous ne verrez pas les descriptions associées aux UserVars du client NUT à jour tant que le host ESXi n’aura pas rebooté.
Mise à jour du 19/10/2022 : ESXi 8.0 est sorti ce 11/10/2022, seules les versions du module avec un numéro de version supérieur à 2.3.2 pourront s’installer sur cette nouvelle version de ESXi (abandon du support des binaires 32-bits et checksum SHA256 requis dans la signature du module).
Principe
La procédure consiste à installer dans l’hyperviseur les binaires et scripts nécessaires à la réception des alertes onduleur. Le schéma classique minimal des connexions entre les éléments d’un réseau électrique protégé par un onduleur est le suivant :
Cette solution n’est pas officiellement supportée par VMware et elle ne s’applique qu’à des hyperviseurs standalone. Elle ne peut pas convenir pour des fermes d’hyperviseurs en cluster de haute disponibilité sous le contrôle d’un vCenter. Seul le client NUT est ajouté à l’hyperviseur, l’onduleur doit être surveillé par un serveur NUT indépendant.
Caractéristiques et fonctionnalités
- La méthode d’installation utilise un fichier VIB (vSphere Installation Bundle). Il n’y a rien d’autre ce qui permet une installation rapide et sûre et une désinstallation propre en utilisant les standards de VMware.
- La compatibilité du module a été assurée pour qu’il fonctionne sur toutes les versions de ESXi entre 5.0 et 8.0. Cependant pour les versions 5.x l’installation automatique par déploiement de ViB n’est pas possible, il faut l’installer manuellement en suivant les instructions ci-dessous et passer outre les avertissements de sécurité. A partir de la version 6.0 de ESXi il n’y a plus ce soucis.
- C’est un client NUT 2.8.1 qui est inclus dans le paquetage. Il peut se connecter aux serveurs avec une version plus ancienne (disons 2.6.4 mais je n’ai pas testé les serveurs plus anciens).
- Actuellement seule la version pour processeur x86 est disponible. Il n’y a pas de version pour ESXi ARM (je n’ai ni le besoin ni la plateforme de test/développement pour ça).
- Le client (secondary dans la terminologie NUT) peut se connecter au serveur (primary) en privilégiant une connexion SSL/TLS si elle est disponible. Il ne sera pas fait de vérification de validité de certificat serveur et il n’y a pas de certificat client configurable.
- Le client peut envoyer un mail très succinct à une adresse configurable lors de la réception d’un évènement onduleur (perte du secteur, batterie faible, engagement de l’arrêt, retour du secteur). L’outil mail est très simple et il récupère les informations pour l’envoi des messages du DNS (enregistrements MX). Vous pouvez aussi utiliser un relais SMTP personnel.
- Le client peut se connecter à plusieurs serveurs NUT s’il y a plusieurs onduleurs (cas des serveurs avec une redondance d’alimentation). Il utilisera le même compte et le même mot de passe pour se connecter aux différents serveurs NUT. A vous de déclarer ce compte sur tous les serveurs NUT.
- Normalement il est possible de préciser le port TCP de connexion au serveur NUT sous la forme onduleur@serveur:port mais ESXi impose des règles de firewall pour le trafic sortant et seul le port 3493 est autorisé. C’est le port par défaut des serveurs NUT.
- Il est possible de demander l’arrêt du système ESXi après un laps de temps sur batterie configurable. Le client reste à l’écoute de l’évènement batterie faible et le système entamera sa procédure d’arrêt soit après le temps imparti soit sur évènement de batterie faible, au premier des deux qui surviendra quand le système est sur batterie. L’attente est interrompue si le courant secteur est rétabli entre temps, mais si la procédure d’arrêt a déjà été initiée, elle ira jusqu’à l’extinction du host ESXi.
- Le redémarrage du serveur après une coupure de courant est aussi une phase importante mais c’est à vous de le prévoir avec d’autres outils. Personnellement (mais ce n’est qu’une suggestion) j’aime bien l’idée d’un chef d’orchestre qui redémarre automatiquement. Il surveille le retour des services tels que le réseau, le serveur NUT etc… et il envoie des trames WOL pour réveiller les machines dans l’ordre désiré. Configurez votre serveur NUT pour qu’il ordonne à l’onduleur de couper effectivement le courant pendant un petit laps de temps même si le courant est revenu pendant la procédure d’arrêt. La plupart des onduleurs ont cette fonction avec les libellés « Interval to wait after shutdown with delay command » et « Interval to wait before (re)starting the load ». Certains onduleurs ont aussi une valeur « Minimum battery level for restart after power off » qui est interessante pour attendre que l’onduleur ait suffisamment rechargé ses batteries avant de faire redémarrer le système. Le risque est de se retourner dans une situation où un second arrêt propre serait impossible si une nouvelle coupure de secteur se produit juste après le redémarrage (ce qui est plutôt fréquent).
- Le client tourne avec le compte root. C’est habituellement déconseillé par la documentation du projet NUT mais l’hyperviseur a un nombre très limité de comptes locaux. Ce nombre de compte s’est beaucoup réduit au fil des versions. Des comptes restants, root est le seul encore utilisable.
Téléchargement du module
Pour toutes les versions de ESXi, l’installation peut se faire en ligne de commande sur l’hyperviseur : un fichier TAR compressé doit être déposé sur l’hyperviseur.
Téléchargez ici le fichier
Télécharger “NutClient-ESXi (binaires)” NutClient-ESXi-2.8.2-2.6.2.x86_64.tar.gz – 821,90 Ko
A partir de ESXi 6.0 vous pouvez utiliser le bundle offline pour une installation en ligne de commande en appelant la commande « esxcli software vib install -d » . Ou par le manager de mises à jour du vCenter si vous en avez un.
Téléchargez ici le bundle offline.
Télécharger “NutClient-ESXi (offline bundle)” NutClient-ESXi-2.8.2-2.6.2-offline_bundle.zip – 823,83 Ko
Vous pouvez créer votre propre package personnalisé à partir des sources. Elles sont distribuées sous licence GPLv3 (GNU Public License version 3). Utilisez un environnement de développement linux 64 bits tel que CentOS 7 avec les outils de compilation et développement C habituels. Un fichier INSTALL décrit la procédure. Les sources sont disponibles également dans un dépot git publique : NutClient-ESXi
Téléchargez ici les sources
Télécharger “NutClient-ESXi (sources)” NutClient-ESXi-2.8.2-2.6.2-src.tar.gz – 121,64 Ko
Installation
Activez l’accès ssh à votre host ESXi si ce n’est pas déjà fait. Cela est fait à partir de l’interface d’administration ESXi ou de la console DCUI. A partir de l’interface d’administration : dans la rubrique gérer de votre hôte, onglet services, dans la liste sélectionnez TSM-SSH et démarrez le service. Le service ssh sera actif jusqu’au prochain reboot de l’hyperviseur ou pendant un temps limité selon la version de votre ESXi.
Copiez le fichier NutClient-ESXi-2.8.2-2.6.2.x86_64.tar.gz dans le répertoire /tmp du host ESXi. Ici je vous donne l’exemple depuis une machine linux (remplacez 10.0.0.8 par l’adresse IP du host ESXi ou son nom FQDN). Depuis Windows vous pouvez utiliser l’outil gratuit WinSCP.
[root@linux ~]# scp NutClient-ESXi-2.8.2-2.6.2.x86_64.tar.gz root@10.0.0.8:/tmp The authenticity of host '10.0.0.8 (10.0.0.8)' can't be established. RSA key fingerprint is 89:49:ce:6d:... ...:40:76:7a:4a:fe. Are you sure you want to continue connecting (yes/no)? yes Warning: Permanently added '10.0.0.8' (RSA) to the list of known hosts. Password: (saisir le mot de passe administrateur ESXi) NutClient-ESXi-2.8.2-2.6.2.x86_64.tar.gz 100% 869KB 1.9MB/s 00:00
Passez votre hyperviseur au niveau d’acceptance Communauté si ce n’est pas déjà fait !
Connectez-vous root en ssh à l’hôte ESXi et tapez la suite de commandes suivantes pour installer le VIB (l’opération peu être longue si votre système est installé sur une clé USB lente) :
~ # cd /tmp /tmp # tar -xzf NutClient-ESXi-2.8.2-2.6.2.x86_64.tar.gz /tmp # sh upsmon-install.sh Installation Result Message: Operation finished successfully. Reboot Required: false VIBs Installed: Margar_bootbank_upsmon_2.8.2-2.6.2 VIBs Removed: VIBs Skipped:
Vous n’avez pas besoin de rebooter pour commencer à utiliser le client NUT sur votre système. Vous devez toutefois le configurer avant son premier lancement.
Vous pouvez supprimer les fichiers qui ont été créés dans /tmp et désactiver le service SSH
Configuration
A l’aide de l’interface d’administration du ESXi, rendez-vous dans la rubrique gérer de l’hôte. Sélectionnez les paramètres avancés de l’onglet Système et filtrez la liste sur UserVars.Nut, vous avez 8 variables à configurer :
- UserVars.NutUpsName : Nom de l’onduleur sur le serveur NUT (sous la forme nom_onduleur@nom_ou_ip_serveur). Plusieurs onduleurs peuvent être saisis séparés par un espace. Il n’y aura pas d’arrêt système tant que le dernier onduleur encore debout n’aura pas donné l’ordre d’arrêt.
- UserVars.NutUser : Nom du compte de connexion au serveur NUT
- UserVars.NutPassword : Mot de passe du compte de connexion au serveur NUT
- UserVars.NutFinalDelay : Secondes qu’il faudra attendre après la réception de l’événement batterie faible pour procéder à l’arrêt du système
- UserVars.NutOnBatteryDelay : Délai en secondes après le début du passage sur batterie de l’onduleur pour stopper le système. Si la valeur est 0 alors le client NUT attendra l’évènement batterie faible pour stopper le système. La valeur par défaut est 0, c’est le fonctionnement normal pour garder le système en fonctionnement le plus longtemps possible. Si l’onduleur repasse sur secteur avant la fin du délai, le système ne sera pas stoppé.
- UserVars.NutSendMail : A mettre à 1 pour que le client NUT envoie un e-mail à chaque évènement important de l’onduleur. La valeur 2 permet d’avoir dans le mail l’état des l’onduleurs lors de l’évènement.
- UsersVars.NutSmtpRelay : Nom ou IP d’un relai SMTP pour y faire transiter le mail. Laisser vide ou saisissez none pour ne pas utiliser de relai (none par défaut).
- UserVars.NutMailTo : Adresse e-mail à laquelle envoyer les évènements de l’onduleur
- UserVars.NutMinSupplies : Pour les systèmes multi onduleurs. Le nombre d’onduleurs qui doivent être en capacité d’alimenter le système avant d’entamer un arrêt. Ce nombre doit être inférieur ou égal au nombre d’onduleurs définis dans UserVars.NutUpsName. Si vous ne respectez pas cette contrainte, le client ne démarrera pas. Avec un seul onduleur, laissez la valeur à 1.
Notez qu’à chaque modification de ces paramètres il sera nécessaire de faire un arrêt/relance du service pour leur prise en compte.
Lancement du service
A l’aide de l’interface d’administration du ESXi, rendez-vous dans la rubrique gérer de l’hôte. Sélectionnez l’onglet Services, trouvez et sélectionnez le service NutClient dans la liste:
Dans les actions du service, choisissez la stratégie démarrage (Démarrer et arrêter avec l’hôte me semble un bon choix). Vous pouvez également le démarrer immédiatement ou l’arrêter.
Astuces
Utilisez la rubrique démarrage automatique de l’onglet Système de l’hôte ESXi pour décider de l’ordre de démarrage et d’arrêt (ou suspension) des machines virtuelles. Cet ordre sera respecté par la procédure d’arrêt sur alerte onduleur. Un bug de ESXi fait que les valeurs par défaut ne sont pas respectées. Vous devez configurer ces paramètre pour chaque VM au moins une fois (quitte à la dé-configurer ce qui la fera réellement suivre les règles par défaut).
Important : L’arrêt propre des OS dans les machines virtuelles n’est possible que si les vmware tools sont installées. Sinon l’arrêt sera brutal, préférez alors une suspension dans la configuration d’arrêt de la VM.
Là encore je rappelle que cette solution n’est pas adaptées aux fermes cluster avec haute disponibilité. Si HA est activé sur la machine hôte le mécanisme d’arrêt propre des VM n’est plus respecté et l’arrêt sera brutal pour toutes les VM.
UEFI secure boot
Si votre hôte ESXi est configuré pour booter en mode UEFI secure boot, l’installation du ViB restera compatible avec cette configuration. En revanche vous ne pouvez pas descendre le niveau d’acceptation à CommunitySupported quand secure boot est activé. Vous devrez :
- rebooter pour aller dans les paramètres UEFI de votre carte mère
- désactiver le secure boot dans les paramètres UEFI de votre carte-mère
- booter (sans secure boot)
- descendre le niveau d’acceptation à CommunitySupported
- Rebooter une seconde fois pour retourner dans les paramètres UEFI
- réactiver le secure boot
- booter (avec secure boot).
Vous aurez secure boot actif et le niveau d’acceptation minimal à CommunitySupported.
Désinstallation
Pour désinstaller le client NUT, utilisez le script upsmon-remove qui se trouve dans le fichier que vous avez téléchargé :
/tmp # sh upsmon-remove
Test
Pour estimer le temps nécessaire au serveur pour s’éteindre sur alerte onduleur tapez la commande « /opt/nut/sbin/upsmon -c fsd » sur le host ESXi (par ssh ou sur la console). La procédure d’arrêt est immédiatement lancée (ne faites pas ça si vous n’aviez pas prévu d’arrêter votre machine).
Bonjour,
Nous utilisons votre solution chez nos clients et cela fonctionne bien.
Merci, c’est du très bon travail !
Merci pour votre retour ! Les prochaines évolutions à venir sont la prise en charge de NUT 2.7.5 quand il sortira et une montée de versión de libressl.
Thank you very much for your work.
Will be possible to add also variable to define MinSupplies (UserVars.NutMinSupplies)? If I’m right, currently it is fixed 1.
Thank you in advance
Hi, I think that this should not be a very big deal to implement. But I have no easy way to test it. Just to remember you that is this is a package I wrote for my own needs because I found nothing existing around. I have several UPSes for my servers but each server has only one UPS. You can already declare several UPSes but MINSUPPLIES parameter in upsmon config is set to its default value : 1.
For curiosity, which kind of situation needs more than 1 UPS running ? I work with servers using redundant power supplies, they can run as long a one power supply is powered. That’s how redundancy work.
Hello, thanks again for your compilation of NUT for vmware. In principle, 1PSU should be enough, but due to the quality of the UPSs, I wanted to start the shutdown after the LowBattery of the first of the two UPSs, as shutting down VMs takes a while and one remaining UPS may not last long enough as the requirements for it double.
New package released today. Version 2.2.0 includes configurable UserVars.NutMinSupplies parameter.
Thank you, I hope, it will be usefull also for others.
Bonjour René!
Il semble y avoir un enjeu avec la détection de la version pour Lifecycle Manager.
Je viens de mettre à jour le package dans LM, mis à jour ma ligne d’extension, mais LM considère que mes hôtes sont à jour.
Tu peux me contacter si tu as besoin d’aider à diagnostiquer.
Merci pour ton package, ça fait vivre mon laboratoire à la maison 🙂
Hélas oui! Je suis au courant du problème et j’y travaille. En ligne de commande esxcli sur l’hyperviseur il détecte bien que c’est une mise à jour mais avec vCenter Lifecycle Manager non. Je me demande si c’est l’encodage du numéro de version (2.7.4-2.2.0) qui le perturbe. J’utilise le même mécanisme à mon travail pour générer des packages mais avec des numéros de versions classiques (au format 1.2.3) et je ne rencontre pas le soucis ni avec vCenter 6.7 Update Manager ni en vCenter 7.0 Lifecycle Manager. Pour l’instant je tente de trouver de la documentation à propos du fichier bulletin.xml qui décrit le bundle mais VMware n’a pas publié grand chose ou alors c’est réservé à leurs partenaires. Ils utilisent des numéros de version bien plus tordus pourtant.
Whoups, la version 2.7.4-2.2.1 vient de bousiller mon LM 🙁
Pas de panique, il n’est certainement pas bousillé. C’est juste qu’il n’applique pas cette mise à jour car elle n’est pas reconnue comme telle. Sinon en cas extreme il y a la KB https://kb.vmware.com/s/article/2147284 mais il faudra refaire les lignes de base personnelle s’il y en avait.
Après un bon moment ça s’est placé.
Merci 😉
Inconsistance de nom dans le offline-bundle corrigé en version 2.2.2 disponible au téléchargement. Cette fois les mises à jour via Update Manager ou Lifecycle Manager fonctionnent.
Je constate que dans metadata/bulletins, il y a les attributs componentNameSpec et componentVersionSpec
Ex.:
Ces attributs n’existent pas dans ton fichier. C’est peut-être la cause?
J’ai essayé de les ajouter tout à l’heure et ça n’a rien changé. Je crois avoir compris le problème. Le système LL pense que le bundle est vide car il y a une incohérence entre le nom du package vue du ViB et le nom du package vu du bundle. À priori quand on donne le bundle à esxcli il n’utilise pas le bulletin xml. C’est pour ça que ça marche en installation et mise à jour en passant le bundle à esxcli.
Effectivement, ça a très bien fonctionné!
Merci!
Bonjour. Comment contrôler que la communication est bien établie avec mon UPS ? Les paramètres ont bien été configuré dans mon Esxi 7 et le service est bien démarré. Mon UPS APS avec carte AP9630 a bien le service SNMPv1 activé. Les règles de démarrage et d’arrêt automatique sont bien établies dans ESXI. Malgré cela un test avec épuisement de batterie ne déclenche pas l’arrêt automatique. De plus NutClient n’envoie pas d’émails d’avertissement.
Merci pour votre aide.
Ceci est un client NUT. Il ne sait communiquer qu’avec un serveur NUT et non un SNMP. En revanche un serveur NUT peut comprendre un UPS SNMP. Il faudra donc un serveur NUT entre l’UPS et l’ESXi
Bonjour,
j’ai installé le client NUT sur mon Esx en suivant votre tuto. Il y a une VM Windows serveur d’installé sur celui-ci mais nous n’avons pas de serveur physique sur le site. Pour information nous avons 10 sites distants à équiper et à configurer.
Est-il possible d’installer le serveur NUT sur le serveur Windows ou faut-il ajouter un serveur physique ? J’ai vu sur le net qu’on pouvait l’installer sur un Raspberry, pourriez-vous me le confirmer s’il vous plaît ?
Merci pour votre tuto
Cordialement,
Franck
Je déconseille d’installer le serveur NUT sur une VM qui est hébergée sur le ESXi qui est client NUT. Personnellement la solution du raspberry pi est de loin la meilleure s’il n’y a rien d’autre de disponible. Un raspberry pi consomme très peu de courant. Pas la peine d’avoir le modèle le plus puissant. Juste vérifier que l’onduleur est bien pris en charge par NUT par un port USB. Le linux raspbian habituellement installé sur ces petites machines dispose du pkg not-server. Il faudra installer aussi nut-client et le configurer pour qu’il s’éteigne aussi lui même proprement en cas de d’alerte de batterie faible sur coupure de courant.
Bonjour,
merci pour votre réponse, je vais regarder pour l’installation sur Raspberry.
Cordialement,
Franck
Bonjour,
Merci pour ce client NUT, ça marche parfaitement !
J’avais juste une question, serait-il possible d’ajouter une uservar pour personnaliser la SHUTDOWNCMD?
J’ai modifié les sources mais je ne trouve pas la toolchain pour recompiler le package moi-même
Merci à vous !
Alex
Bonjour,
Je n’ajouterai pas ce type de uservar. Ce n’est pas dans l’esprit du module qui convient a la grande majorité des utilisateurs. Pour la compilation j’utilise encore un vieux CentOS 5.11 en 32 bits pour rester compatible avec les anciennes versions de ESXi.
Hello!
I have this installed but it doesn’t seem to work. The service gets started and is immediately stopped, with logs looking like the following:
2022-06-03T00:22:49.354Z NUT[548216]: NUT client is not running
2022-06-03T00:22:49.539Z NUT[548229]: NUT client started
2022-06-03T00:22:49.635Z NUT[548239]: NUT client is not running
Any ideas?
Thanks!
This usually happens when parameters in the UserVars are not correct. Check the values you entered.
Hello,
first of all: great work!
In a lot of cases it is neccesary to configure an internal smtp relay.
Normally it is no problem to modify your notify.sh, for example:
/opt/nut/bin/smtpblast -f « ${FROM} » -t « ${TO} » -r « ${SMTPHOST} »
But due to new security features in ESXi 7 it is not possible to change the file, even if root and 755 rights on the file.
It would be glad, if you could add the « -r » Prarmeter in the notify.sh and in the Uservars-Section resp. notify.conf!
This feature (to send an email) is not mandatory and it uses smtpblast that is a very simple (and old) direct SMTP client. As I want to keep this module as simple as possible it will not match all the needs for everybody. If the mail feature does not work out of the box due to special local network configuration that needs a custom smtp relay you can still download the sources and create your own version of the notify.sh script. You can probably configure your NUT server to send some kind of notification on UPS events. So the answer is : I already know that but I won’t do it. Sorry.
Hi, it’s really a great tool used by many people and has been a standard way to connect UPS to ESXi for past 10+ years. I just recently started the idea to add UPS to my ESXi server and learnt form Google all these. However I can’t find the clue what in particular ESXi doesn’t support so make it ESXi impossible to connect UPS via USB directly, lack of drivers for UART or what? Even though it can passthrough USB to VM for scan. And why ESXI doens’t evolve for such a long time, or it’s just a limitation to free license but always supported on paid license?
Thank you, it’s always a pleasure to see that my package is useful for some people. At the beginning I created this package to answer a personal need as VMware was not providing any solution. Now I understand that VMware wants to keep ESXi as small as possible to have the minimum footprint on the host. Compared with other virtualization solutions it’s a success. ESXi has very small overhead and most of the ressources are available for the VMs. To achieve this goal, the ESXi kernel looks like a linux kernel but only the minimum drivers have been implemented. Only low level USB is supported mainly to redirect USB trafic to VMs with passthrough even on paid licences. Same for UARTs. I have not tried recently to compile the server part of NUT to make it run on ESXi because it needs a lot of libraries and dependencies unavailable on ESXi. I could compile all the needed libraries to check if this is possible but when I tried (was ESXi5.0) it was just a nightmare to solve all the dependencies. The client part of Nut is very simple compared with the server. Then understand that this is mainly designed for a standalone,e ESXi server. For a farm managed by vCenter it could be a bit tricky to use the package. There are solutions provided by some UPS manufacturer that can be used for vCenter but globally those solutions eat a lot of resources as they need a dedicated VM to handle UPS events. The goal of my solution was to keep the NUT client as small as possible. Resources are too valuable to waste them.
Hello Rene,
thank you for the client.
I’m just doing my first steps under VMWare and use
ESXi version : 7.0.2
Client version: 1.34.8
During the installation I get the following error:
[root@localhost:/tmp] ls
NutClient-ESXi-2.8.0-2.3.0.i386.tar.gz
readme.txt
upsmon-2.8.0-2.3.0.i386.vib
upsmon-install.sh
upsmon-remove.sh
upsmon-update.sh
vmware-root
wbem-vm-report.xml
[root@localhost:/tmp] ./upsmon-install.sh
[KeyError]
« filename ‘var/db/payloads/boot_loader_efi/BOOTx64.EFI’ not found »
Please refer to the log file for more details.
[root@localhost:/tmp]
On my server I only see the directory
var/db/payloads/boot/
What am I doing wrong?
Many Thanks
and best regards
Martin
This is very strange. The package does not install anything in /var so it may be an issue with the installation command used to deploy the ViB file.
Can you try the manual install using the “offline bundle zip” file ? You can download it on this site. Then upload it to /tmp on ESXi and execute command : esxcli software vib install -d /tmp/NutClient-ESXi-2.8.0-2.30-offline_bundle.zip
Make sure that the acceptance level for third party packages is set to community.