Hypervisor.fr X

Aujourd’hui, Hypervisor.fr a 10 ans.

Je sais qu’on ne vous offre plus autant de contenu qu’avant (même si on va faire en sorte que ça change), qu’on aurait du faire évoluer la charte graphique et refresh les section ZFS, Tools, Presse, etc… (même si on va faire en sorte que ça change) mais sachez qu’on est toujours là et pour vous le prouver, on vous offre la dernière version de SexiGraf avec plein de nouvelles feature sympa et un petit teasing de notre prochain projet (toujours avec vmdude) :

Merci à ceux qui se souviennent encore de nous et qui continue à nous soutenir !

VCSA to NextCloud

Lors d’une update d’une VSCA 6.7 de lab, nous avons été amusé par l’étape de backup que VMware à ajouté au workflow d’update de la VAMI (sublime HTML5 Clarity d’ailleurs). Il faut à présent certifier que l’on a bien backupé l’appliance avant de se lancer dans une update :

la VCSA 6.7 introduit le backup automatique programmé mais toujours pas le support du SMB (raison pour laquelle nous avions boudé la feature en 6.5). En fouillant dans la doc, nous nous sommes aperçu que le protocole webdav était supporté, c’est certainement ce que VMware sous-entend par http et https bien que ce ne soit pas extrêmement clair.

En grand fan et utilisateur intensif de NextCloud que nous sommes, nous avons testé le backup en secure webdav (https) vers un nextcloud avec succès et ce très facilement (on s’attendait à des histoires d’url comme c’est souvent le cas avec le webdav) :

Reste plus qu’à tester le restore maintenant Cool

Tags: , , ,

TLBleed : Seeing double?

Les plus vieux d’entres nous se souviennent surement encore des débuts chaotiques (en environment serveur) de l’Hyper-Threading en 2002, cet artifice qui permettait de compenser les problèmes de l’architecture NetBurst d’Intel.

Compte tenu de son implementation de l’époque (très bien décrite, en Francais, par nos amis d’x86-secret), il était souvent recommandé de désactiver l’HT. Au fil des évolutions des CPU mais aussi des versions d’ESX, la situation a fini par s’inverser et le grand débat de l’HT pouvait prendre fin…

Internal testing shows that the recent generation of HT processors displays a higher performance gain from utilizing both logical processors. This means that the potential performance loss by letting some hyper-threads idle for a fairness reason becomes non trivial.

[...]

On vSphere 5.x, such a benefit is recognized and more CPU time is charged when both logical processors are busy. The implication of this newer charging model on HT is that a vCPU which is lagging behind can catch up more quickly even on a partial core, making it less necessary to use only the whole core.

…Ou pas, car comme l’a décrit x86-secret il y a 16 ans (!) :

Avec l’HT, ce sont désormais deux flux d’instructions qui arrivent à l’entrée du pipeline. A noter que seule la partie en amont du pipeline est, d’une certaine façon, “consciente” de la présence de ces deux flux provenant de deux threads différents, et le reste du traitement s’effectue comme s’il s’agissait d’un unique flux d’instruction. Ainsi, les deux threads se partagent les unités de calcul et les mémoires caches.

Et guess what, une équipe d’un centre de recherche hollandais dit avoir été capable d’exploiter cette faiblesse connue depuis de années (mais c’était avant AWS & Co) maintenant baptisée TLBleed. En pleine “crise” Spectre/Meltdown, Intel semble ne pas avoir l’intention d’adresser cette faille mais les choses pourraient bien changer au moment de la publication d’ici le mois d’Août. Et oui, AMD est potentiellement impacté aussi :)

Et surprise, l’équipe des devs du projet OpenBSD (“As of February 2018, only two remote vulnerabilities have ever been found in the default install, in a period of almost 22 years) a décidé de désactiver l’HT dans les nouvelles releases. Et c’est d’ailleurs pour ca que toute l’histoire est remonté à la surface.

On notera au passage que l’ANSSI recommandait déjà de désactiver l’HT depuis 2015 au moins, pour les mêmes raisons.

C’est donc le moment de sortir les popcorn’s. Quand on se souvient de l’affaire du salage de TPS pour des histoires de differences de latences de cache en environnement contrôlé, on se régale de la com VMware qui justifiera la désactivation d’HT dans ESX.

vExpert & vExpert VSAN 2018

Comme chaque année, c’est avec honneur que nous rejoignons les rangs des VMware vExpert et, plus récemment, ceux du vExpert VSAN progam. Une fois de plus nous tenons à remerciez VMware et tout ceux qui nous soutiennent.

Tags:

VMXNET3 = 10GbE ?

Nous nous décidons à écrire ce billet après avoir entendu par la millième fois “Le réseau est lent dans ma VM, on peut pas mettre une carte vmxnet3 pour avoir du 10 giga?”. Je sais c’est dur à lire mais c’est la triste vérité.

Donc pour donner une url plutôt que de retaper une fois de plus l’explication, voici l’extrait du VMware Virtual Networking Concepts qui fait foi :

The speed and duplex settings found in physical networking are not relevant in the virtual network, because all the data transfer takes place in the host system’s RAM, nearly instantaneously and without the possibility of collisions or other signaling-related errors.

Et si vous en aviez encore besoin, en voici la preuve :

iperf win64 entre 2 cartes e1000 "bridée" à 100Mo

iperf entre 2 cartes vmxnet3

Tags: ,