<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Hypervisor.fr</title>
	<atom:link href="http://www.hypervisor.fr/?feed=rss2" rel="self" type="application/rss+xml" />
	<link>http://www.hypervisor.fr</link>
	<description>French Bare-Metal weblog</description>
	<lastBuildDate>Wed, 26 Jun 2024 22:42:28 +0000</lastBuildDate>
	<generator>http://wordpress.org/?v=2.9.2</generator>
	<language>en</language>
	<sy:updatePeriod>hourly</sy:updatePeriod>
	<sy:updateFrequency>1</sy:updateFrequency>
			<item>
		<title>vCenter Server 8.0 Update 3 : Disabled Methods</title>
		<link>http://www.hypervisor.fr/?p=6036</link>
		<comments>http://www.hypervisor.fr/?p=6036#comments</comments>
		<pubDate>Wed, 26 Jun 2024 15:29:29 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[News]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=6036</guid>
		<description><![CDATA[11 ans après le fameux LazyMethodsEnabler tool de notre collègue vmdude, Broadcom VMware ajoute à vCenter Server 8.0 Update 3 la possibilité de réactiver la method RelocateVM_Task suite à un backup interrompu (ou autre mais c’est plus rare) par exemple :

Starting with vCenter Server 8.0 Update 3, in the vSphere Client under Virtual Machine &#62; [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;"><strong>11 ans</strong> après le fameux <a href="https://www.vmdude.fr/post/2013/07/12/lazymethodsenabler-tool/" target="_blank">LazyMethodsEnabler tool</a> de notre collègue vmdude, <span style="text-decoration: line-through;">Broadcom</span> VMware ajoute à <a href="https://docs.vmware.com/en/VMware-vSphere/8.0/rn/vsphere-vcenter-server-803-release-notes/index.html" target="_blank">vCenter Server 8.0 Update 3</a> la possibilité de réactiver la method <strong>RelocateVM_Task </strong>suite à un backup interrompu (ou autre mais c’est plus rare) par exemple :</p>
<blockquote>
<p style="text-align: justify;">Starting with vCenter Server 8.0 Update 3, in the vSphere Client under <strong id="id-c32c543e-48b4-4b90-cccc-8279fdb9cc33">Virtual Machine</strong> &gt; <strong id="id-b17d02a0-ccac-414c-bdac-c0b087711db2">Configure</strong> &gt; <strong id="id-f5cc2dbd-e19b-481e-a488-1d2a26b484f0">Disabled Methods</strong> you can remove restrictions on virtual machine operations such as migration.</p>
</blockquote>
<p style="text-align: center;"><img class="aligncenter size-full wp-image-6038" title="RelocateVM_Task" src="http://www.hypervisor.fr/wp-content/uploads/2024/06/firefox_F1W4wT78as.png" alt="" width="446" height="318" /></p>
<p style="text-align: center;">
<p><img class="aligncenter size-full wp-image-6040" title="Disabled Methods" src="http://www.hypervisor.fr/wp-content/uploads/2024/06/firefox_XxPkReXl4m2.png" alt="" width="684" height="367" />Malheureusement, il semble qu&#8217;il n&#8217;y ait pas d&#8217;api public pour cette feature&#8230;</p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=6036</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>Host.Local.ManageUserGroups = root</title>
		<link>http://www.hypervisor.fr/?p=6005</link>
		<comments>http://www.hypervisor.fr/?p=6005#comments</comments>
		<pubDate>Fri, 30 Jul 2021 14:16:51 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Tips & Tricks]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[esxcli]]></category>
		<category><![CDATA[Get-EsxCli]]></category>
		<category><![CDATA[PowerCLI]]></category>
		<category><![CDATA[powershell]]></category>
		<category><![CDATA[vCenter]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=6005</guid>
		<description><![CDATA[MAJ 11/01/2023 : William Lam vient de nous faire remarquer qu&#8217;il etait possible d&#8217;hardener vSphere 8 pour limiter cette &#8220;feature&#8221; ainsi que de limiter le shell aux user non root (dcui par exemple&#8230;)

By restricting ESXi Shell access for the vpxuser, you prevent attackers,  which can also be insiders who have access to vCenter Server the [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;"><em><span style="color: #ff0000;">MAJ 11/01/2023</span> : <a href="https://williamlam.com/2023/01/applying-additional-security-hardening-enhancements-in-esxi-8-0.html" target="_blank">William Lam vient de nous faire remarquer qu&#8217;il etait possible d&#8217;hardener vSphere 8 pour limiter cette &#8220;feature&#8221; ainsi que de limiter le shell aux user non root (dcui par exemple&#8230;)</a></em></p>
<blockquote>
<p style="text-align: justify;"><em>By restricting ESXi Shell access for the vpxuser, you prevent attackers,  which can also be insiders who have access to vCenter Server <strong>the  ability to just change the ESXi root password without knowing the  original password</strong>.</em></p>
</blockquote>
<p style="text-align: justify;">Après l’énorme succès de notre billet <a href="http://www.hypervisor.fr/?p=5655" target="_blank">Administrators = root</a> qui vous permet de reset le mot de passe root de vos ESX sans le connaître (si vous êtes admin du vCenter) grâce à Get-EsxCli, voici <a href="https://vdc-repo.vmware.com/vmwb-repository/dcr-public/790263bc-bd30-48f1-af12-ed36055d718b/e5f17bfc-ecba-40bf-a04f-376bbb11e811/vim.host.LocalAccountManager.html#updateUser" target="_blank">une nouvelle méthode utilisable depuis vSphere 6.7 U2</a> qui nécessite encore moins de droits :</p>
<blockquote><p>Updates a local user account using the parameters defined in the   <a href="https://vdc-repo.vmware.com/vmwb-repository/dcr-public/790263bc-bd30-48f1-af12-ed36055d718b/e5f17bfc-ecba-40bf-a04f-376bbb11e811/vim.host.LocalAccountManager.AccountSpecification.html" target="_blank">HostLocalAccountManagerAccountSpecification</a> data object type.</p></blockquote>
<blockquote><p>Required Privileges <a href="https://files.hypervisor.fr/img/HostLocalManageUserGroups.png" target="_blank">Host.Local.ManageUserGroups</a></p></blockquote>
<pre class="brush: powershell; title: ; notranslate">(Get-View (Get-VMHost|Get-View).ConfigManager.AccountManager).UpdateUser($(New-Object VMware.Vim.HostAccountSpec -Property @{id=&quot;root&quot;;password=&quot;VMw4re!&quot;}))</pre>
<p style="text-align: justify;">Attention, contrairement à la méthode Get-EsxCli, cette fois un petit event va vous trahir instantanément :</p>
<p style="text-align: justify;"><img class="aligncenter" src="https://files.hypervisor.fr/img/HostAccountSpec.png" alt="" width="517" height="324" /></p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=6005</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>Dual vSAN Datastores</title>
		<link>http://www.hypervisor.fr/?p=5949</link>
		<comments>http://www.hypervisor.fr/?p=5949#comments</comments>
		<pubDate>Thu, 15 Apr 2021 19:24:23 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[HowTo]]></category>
		<category><![CDATA[Tips & Tricks]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[VSAN]]></category>
		<category><![CDATA[PowerCLI]]></category>
		<category><![CDATA[SVMotion]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=5949</guid>
		<description><![CDATA[MAJ 30/07/2021 : Sur vSphere 7.0 U2 il est nécessaire de préciser l&#8217;UUID du cluster vSAN dans la commande, très probablement pour le fonctionnement d&#8217;HCI mesh :

Datastore UUID is required when a cluster UUID is specified


Get-VMHost&#124;%{($_&#124;get-esxcli).vsan.datastore.add($null, &#34;vsanDatastore2&#34;, &#34;11111111-1111-1111-1111-111111111111&#34;)}
En utilisant $null pour la propriété ClusterUUID, ca passe crème.
MAJ 18/05/2021 : On me signale dans l&#8217;oreillette que [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;"><em><span style="color: #ff0000;"><strong>MAJ 30/07/2021</strong></span> : Sur vSphere 7.0 U2 il est nécessaire de préciser l&#8217;UUID du cluster vSAN dans la commande, très probablement pour le fonctionnement d&#8217;HCI mesh :</em></p>
<blockquote>
<p style="text-align: justify;">Datastore UUID is required when a cluster UUID is specified</p>
</blockquote>
<p style="text-align: center;"><a href="https://files.hypervisor.fr/img/Dual_vSAN_Datastores/dual_vsan_vsp7U2.png" target="_blank"><img class="aligncenter" src="https://files.hypervisor.fr/img/Dual_vSAN_Datastores/dual_vsan_vsp7U2.png" alt="" width="549" height="500" /></a></p>
<pre class="brush: powershell; title: ; notranslate">Get-VMHost|%{($_|get-esxcli).vsan.datastore.add($null, &quot;vsanDatastore2&quot;, &quot;11111111-1111-1111-1111-111111111111&quot;)}</pre>
<p style="text-align: justify;">En utilisant $null pour la propriété ClusterUUID, ca passe crème.</p>
<p style="text-align: justify;"><em><span style="color: #ff0000;"><strong>MAJ 18/05/2021</strong></span> : On me signale dans l&#8217;oreillette que <strong>VMware supporterai officiellement cette méthode</strong> :</em></p>
<blockquote>
<p style="text-align: justify;"><em>Engineering have advised that the procedure you are carrying out is applicable to your specific need and is considered supported from us</em></p>
</blockquote>
<p style="text-align: justify;">Tous les admin VMware le savent, <strong>après renommage d&#8217;une VM</strong> il convient de faire un petit <strong>Storage vMotion</strong> (<a href="https://kb.vmware.com/s/article/1009113" target="_blank">aka d-motion pour les boomers</a>) pour &#8220;propager&#8221; le nouveau nom aux fichiers de la VM en question. Et pour ceux qui l&#8217;ignorait encore, <a href="http://www.yellow-bricks.com/2012/12/21/renaming-virtual-machine-files-using-svmotion-back/" target="_blank">cette feature était un bug jusqu&#8217;à la version 5.0 U2 d&#8217;ESXi</a>.</p>
<p style="text-align: justify;">Évidement, cela nécessite d&#8217;avoir <strong>un 2eme datastore</strong> (idéalement avec des performances identiques et la bonne volumétrie) pour faire l&#8217;aller-retour de la VM (ou un <a href="https://docs.vmware.com/en/vRealize-Operations-Manager/8.0/com.vmware.vcom.core.doc/GUID-82F8390B-8448-40DA-BFF1-30AB6166141D.html" target="_blank">Storage Pod</a>) <strong>ce qui n&#8217;est pas souvent le cas sur un cluster vSAN</strong> pour des raisons évidentes.</p>
<p style="text-align: center;"><img class="aligncenter" title="vSAN HCI Mesh" src="https://files.hypervisor.fr/img/VMware-vSAN-HCI-Mesh.png" alt="" width="498" height="302" /></p>
<p style="text-align: justify;">Jusqu&#8217;à maintenant, les seules solutions étaient de &#8230; ne rien faire ou de connecter un datastore NFS ponctuellement pour faire le svmotion. Mais en cherchant à faire du <strong><a href="https://core.vmware.com/resource/vmware-vsan-hci-mesh-tech-note#" target="_blank">HCI mesh</a></strong> en ligne de commande nous sommes tombé sur la solution (<a href="https://code.vmware.com/docs/12778/esxi-7-0-u1-esxcli-command-reference/namespace/esxcli_vsan.html" target="_blank">très discrètement documenté</a>) : <strong>esxcli vsan datastore add</strong> pour créer <strong>un 2eme datastore sur le vmdk namespace</strong>.<br />
<strong> </strong></p>
<p style="text-align: center;"><a href="http://download3.vmware.com/vmworld/2014/downloads/session-pdfs/STO1279_Final_US.pdf"><strong><img class="aligncenter" title="Architecting_Virtual_SAN" src="https://files.hypervisor.fr//img/Architecting_Virtual_SAN_6.2.2.008.1.png" alt="" width="519" height="398" /></strong></a></p>
<p style="text-align: justify;">Cette feature semble être apparu à partir de la version 6.7 U3 et est évidement accessible en PowerCLI également. Il suffit donc d&#8217;ajouter un &#8220;datastore&#8221; vSAN en précisant le nom et l&#8217;UUID de votre choix si vous le souhaitez. <strong>Il est nécessaire d&#8217;exécuter cette même commande sur tous les ESX du cluster avec le même nom <span style="color: #ff0000;"><span style="text-decoration: underline;">et le même UUID</span></span>.</strong></p>
<p style="text-align: center;"><a href="https://files.hypervisor.fr/img/Dual_vSAN_Datastores/esxcli_vsan_datastore_add.png" target="_blank"><strong><img class="aligncenter" title="esxcli_vsan_datastore_add" src="https://files.hypervisor.fr/img/Dual_vSAN_Datastores/esxcli_vsan_datastore_add.png" alt="" width="506" height="582" /></strong></a></p>
<blockquote>
<p style="text-align: justify;"><strong>Add a new datastore to the vSAN cluster</strong>. This operation is only allowed if vSAN is enabled on the host. In general, add should be done at cluster level. Across a vSAN cluster vSAN datastores should be in sync.</p>
</blockquote>
<p style="text-align: justify;">Voila ce que ça donne sur un cluster à 3 noeuds :</p>
<p style="text-align: center;"><a href="https://files.hypervisor.fr/img/Dual_vSAN_Datastores/Get-EsxCli_vsan_datastore_add.png"><img class="aligncenter" src="https://files.hypervisor.fr/img/Dual_vSAN_Datastores/Get-EsxCli_vsan_datastore_add.png" alt="" width="478" height="294" /></a></p>
<p style="text-align: justify;"><a href="https://files.hypervisor.fr/img/Dual_vSAN_Datastores/vpx_vsandatastore2.png" target="_blank"><img class="aligncenter" src="https://files.hypervisor.fr/img/Dual_vSAN_Datastores/vpx_vsandatastore2.png" alt="" width="487" height="330" /></a></p>
<p style="text-align: justify;"><a href="https://files.hypervisor.fr/img/Dual_vSAN_Datastores/vsan_vm_storage_policies.png" target="_blank"><img class="aligncenter" src="https://files.hypervisor.fr/img/Dual_vSAN_Datastores/vsan_vm_storage_policies.png" alt="" width="486" height="320" /></a>On peut donc maintenant faire notre svmotion aller-retour sans perte de performances.</p>
<p style="text-align: center;"><a href="https://files.hypervisor.fr/img/Dual_vSAN_Datastores/vpx_svmotion.png" target="_blank"><img class="aligncenter" src="https://files.hypervisor.fr/img/Dual_vSAN_Datastores/vpx_svmotion.png" alt="" width="444" height="260" /></a></p>
<p style="text-align: justify;">Une fois l&#8217;operation terminé on peut utiliser la commande &#8220;<strong>remove</strong>&#8221; en precisant le nom et l&#8217;UUID du datastore ou carrément la commande &#8220;<strong>clear</strong>&#8221; :</p>
<blockquote>
<p style="text-align: justify;"><strong>Remove all but the default datastore from the vSAN cluster</strong>. This operation is only allowed if vSAN is enabled on the host. In general, add should be done at cluster level. Across a vSAN cluster vSAN datastores should be in sync.</p>
</blockquote>
<p style="text-align: justify;">Et aucun risque de se rater, <strong>si une vm est toujours présente sur le datastore, vous aurez droit à une belle erreur</strong>. Après avoir fait du ménage, ça passe crème :</p>
<p style="text-align: center;"><a href="https://files.hypervisor.fr/img/Dual_vSAN_Datastores/esxcli_vsan_datastore_clear.png" target="_blank"><img class="aligncenter" src="https://files.hypervisor.fr/img/Dual_vSAN_Datastores/esxcli_vsan_datastore_clear.png" alt="" width="478" height="313" /></a></p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=5949</wfw:commentRss>
		<slash:comments>3</slash:comments>
		</item>
		<item>
		<title>vMotion SDPS madness</title>
		<link>http://www.hypervisor.fr/?p=5925</link>
		<comments>http://www.hypervisor.fr/?p=5925#comments</comments>
		<pubDate>Thu, 08 Aug 2019 12:28:27 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Performance]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[stun]]></category>
		<category><![CDATA[troubleshooting]]></category>
		<category><![CDATA[VMotion]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=5925</guid>
		<description><![CDATA[Nous profitons de la coincidence d&#8217;un problème rencontré récemment chez un client et d&#8217;un excellent post de Niels Hagoort, le co-auteur du célèbrissime VMware vSphere 6.5 Host Resources Deep Dive, pour vous parler d&#8217;une fonctionnalité de vMotion apparu dans ESX 5.0 : Stun During Page Send (SDPS).

vSphere 5 introduces a new enhancement that ensures vMotion [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">Nous profitons de la coincidence d&#8217;un problème rencontré récemment chez un client et <a href="https://blogs.vmware.com/vsphere/2019/07/the-vmotion-process-under-the-hood.html" target="_blank">d&#8217;un excellent post de Niels Hagoort</a>, le co-auteur du célèbrissime VMware <a href="https://frankdenneman.nl/publications/" target="_blank">vSphere 6.5 Host Resources Deep Dive</a>, pour vous parler <a href="https://www.vmware.com/content/dam/digitalmarketing/vmware/en/pdf/techpaper/vmware-vmotion-performance-vsphere5.pdf" target="_blank">d&#8217;une fonctionnalité de vMotion apparu dans ESX 5.0 : Stun During Page Send (SDPS)</a>.</p>
<blockquote>
<p style="text-align: justify;">vSphere 5 introduces a new enhancement that ensures vMotion will not fail due to memory copy convergence issues. As noted in the “Architecture” section, transfer of the virtual machine’s memory contents during the vMotion process involves an iterative precopy procedure. In most cases, a precopy iteration should take less time to complete than the previous iteration. <strong>However, a pathological case where the virtual machine modifies memory faster than it can be transferred—due to workload characteristics or network infrastructure limitations—results in aborting vMotion</strong> in vSphere 4.1 and prior releases, because precopy fails to make forward progress. <strong>The enhancement in vSphere 5 slows down the virtual machine during such pathological cases and ensures that the memory modification rate is slower than the precopy transfer rate, thereby preventing any possible vMotion failures</strong>.</p>
</blockquote>
<p style="text-align: center;"><a href="http://www.hypervisor.fr/wp-content/uploads/2019/08/vMotion-timeline3-1024x265.png" title="vMotion-timeline3-1024x265" rel="lightbox[5925]"><img class="aligncenter size-full wp-image-5928" title="vMotion-timeline3-1024x265" src="http://www.hypervisor.fr/wp-content/uploads/2019/08/vMotion-timeline3-1024x265.png" alt="" width="491" height="127" /></a></p>
<p style="text-align: justify;">Vous l&#8217;aurez compris, si l&#8217;ESX source n&#8217;arrive pas à &#8220;dépiler&#8221; la vram suffisamment vite lors d&#8217;un vMotion, l&#8217;execution de la VM en question est ralentie jusqu&#8217;à ce qu&#8217;une convergence soit possible, <a href="http://www.hypervisor.fr/?p=2865" target="_blank">dans la limite des timeout par défaut</a>.</p>
<p style="text-align: justify;">Cette fonctionnalité semble parfaite pour les monster VM qu&#8217;on a du mal à évacuer lors d&#8217;un passage en maintenance mode mais elle est aussi très &#8220;problématique&#8221; lorsque l&#8217;infrastructure réseau n&#8217;est pas ou plus adaptée. D&#8217;où le très discret &#8220;network infrastructure limitations&#8221; dans le descriptif.</p>
<p style="text-align: justify;">En l&#8217;occurence, le client en question mène une campagne de &#8220;refresh&#8221; de son parc afin de remplacer des machines ayant largement dépassé leur date de péremption technique. Mais sans faire évoluer son réseau. Il se retrouve donc avec machine de 2To de RAM sur un réseau 1GbE.</p>
<p style="text-align: center;"><a href="http://www.hypervisor.fr/wp-content/uploads/2019/08/sdps_gbe.png" title="sdps_gbe" rel="lightbox[5925]"><img class="aligncenter size-full wp-image-5929" title="sdps_gbe" src="http://www.hypervisor.fr/wp-content/uploads/2019/08/sdps_gbe.png" alt="" width="482" height="330" /></a></p>
<p style="text-align: justify;">Evidement, à mesure que des VM de plus en plus grosses sont provisionnées sur ces environnements, les fenêtres de maintenance sont de plus en plus grande mais surtout des ralentissements apparaissent lors des mise en maintenance ou simplement quand DRS déplace de VM :</p>
<blockquote>
<p style="text-align: justify;">018-12-13T16:32:29.378Z cpu18:74031)VMotion: 4943: 7811810961774337297 S: <strong>Not enough forward progress, enabling SDPS</strong> (Pages left to send: prev2 693298, prev 461605, cur 497489, network bandwidth ~28.619 MB/s, 94% t2d)<br />
2018-12-13T16:38:32.426Z cpu188:72874)VMotion: 4943: 7811810962073701659 S: Not enough forward progress, enabling SDPS (Pages left to send: prev2 126959, prev 18467, cur 15909, network bandwidth ~60.158 MB/s, 103% t2d)</p>
</blockquote>
<p style="text-align: justify;">SDPS fait son boulot et il le fait bien alors évidement pour faire passer des VM de 256Go qui bossent fort dans du 1GbE ca pique&#8230; Donc la prochaine fois qu&#8217;on vous dit que la bande passante de vmotion peut être sacrifiée, vous saurez quoi répondre.</p>
<p style="text-align: justify;">Evidement, <a href="https://kb.vmware.com/s/article/2007595" target="_blank">il y a un (mauvais) plan B</a> :</p>
<blockquote>
<p style="text-align: justify;">To work around this issue, the Stun During Page Send (SDPS) feature can be disabled on a per-host basis.<br />
[...]<br />
Change the value of <strong>Migrate.SdpsEnabled</strong> to 0.</p>
</blockquote>
<p style="text-align: justify;">Nous en profitons pour souligner un autre &#8220;petit&#8221; détail du texte au sujet du Page Tracing :</p>
<blockquote>
<p style="text-align: justify;">During the pre-copy phase, the vCPU’s, in use by the virtual machine, are <strong>briefly stunned to install the page tracers</strong>.</p>
</blockquote>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=5925</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>#vExpert10 &amp; #Web30</title>
		<link>http://www.hypervisor.fr/?p=5915</link>
		<comments>http://www.hypervisor.fr/?p=5915#comments</comments>
		<pubDate>Thu, 08 Aug 2019 09:31:33 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[News]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[VSAN]]></category>
		<category><![CDATA[veeam]]></category>
		<category><![CDATA[SexiGraf]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=5915</guid>
		<description><![CDATA[Time flies. Ce qu&#8217;il y a de génial avec cette expression anglaise américaine c&#8217;est qu&#8217;on visualise tout de suite un avion de chasse passer à mach 5 avec votre todo list. En tout cas, cela résume bien le silence d&#8217;un an entre ce post et le précédent qui avait pour vocation, lui  aussi, de célébrer [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;"><strong>Time flies</strong>. Ce qu&#8217;il y a de génial avec cette expression <span style="text-decoration: line-through;">anglaise</span> américaine c&#8217;est qu&#8217;on visualise tout de suite un avion de chasse passer à mach 5 avec votre todo list. En tout cas, cela résume bien le silence d&#8217;un an entre ce post et le précédent qui avait pour vocation, lui  aussi, de célébrer l&#8217;anniversaire de ce blog. Et de 11 !</p>
<p style="text-align: center;"><a href="http://www.hypervisor.fr/wp-content/uploads/2019/08/veeam_vanguard.jpg" title="veeam_vanguard" rel="lightbox[5915]"><img class="aligncenter size-full wp-image-5918" title="veeam_vanguard" src="http://www.hypervisor.fr/wp-content/uploads/2019/08/veeam_vanguard.jpg" alt="" width="395" height="178" /></a></p>
<p style="text-align: justify;">On va en profiter pour remercier VMware, Veeam et toute la communauté pour les nominations de <strong>vExpert</strong>, <strong>vExpert</strong> <strong>vSAN</strong> et <strong><span style="color: #008000;">Veeam Vanguard</span></strong> de cette année, c&#8217;est toujours un honneur. 10 étoiles ca commence à faire <img src='http://www.hypervisor.fr/wp-includes/images/smilies/icon_smile.gif' alt=':)' class='wp-smiley' /> </p>
<p style="text-align: center;"><a href="http://www.hypervisor.fr/wp-content/uploads/2019/08/vexpert_2019.png" title="vexpert_2019" rel="lightbox[5915]"><img class="aligncenter size-full wp-image-5919" title="vexpert_2019" src="http://www.hypervisor.fr/wp-content/uploads/2019/08/vexpert_2019.png" alt="" width="408" height="275" /></a></p>
<p style="text-align: justify;">Nous avons même <a href="https://blogs.vmware.com/virtualblocks/2019/03/08/vspeaking-podcast-episode-108-top-10-vmware-tools/?src=so_5c86ac27b7e2a&amp;cid=70134000001CTmC" target="_blank">eu droit à une &#8220;honorable mention&#8221; dans un des vSpeaking Podcast de VMware</a> pour <a href="http://www.sexigraf.fr" target="_blank">SexiGraf</a>. La classe <img class="superemotions" title="Cool" alt="Cool" border="0" src="http://www.hypervisor.fr/wp-includes/images/smilies/icon_cool.gif" /></p>
<p style="text-align: justify;">Et puisque c&#8217;est les 30 ans du <a href="https://web30.web.cern.ch" target="_blank">World Wide Web</a> ET de/du la/le <a href="https://www.theverge.com/2019/4/17/18311479/nintendo-game-boy-30th-anniversary-switch-gaming" target="_blank">Game Boy</a>, nous nous sommes permis :</p>
<p style="text-align: justify;"><a href="http://www.hypervisor.fr/wp-content/uploads/2019/08/web30_gameboy.png" title="web30_gameboy" rel="lightbox[5915]"><img class="aligncenter size-full wp-image-5917" title="web30_gameboy" src="http://www.hypervisor.fr/wp-content/uploads/2019/08/web30_gameboy.png" alt="" width="308" height="282" /></a></p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=5915</wfw:commentRss>
		<slash:comments>2</slash:comments>
		</item>
		<item>
		<title>Hypervisor.fr X</title>
		<link>http://www.hypervisor.fr/?p=5888</link>
		<comments>http://www.hypervisor.fr/?p=5888#comments</comments>
		<pubDate>Wed, 08 Aug 2018 17:47:07 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[News]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=5888</guid>
		<description><![CDATA[Aujourd&#8217;hui, Hypervisor.fr a 10 ans.
Je sais qu&#8217;on ne vous offre plus autant de contenu qu&#8217;avant (même si on va faire en sorte que ça change), qu&#8217;on aurait du faire évoluer la charte graphique et refresh les section ZFS, Tools, Presse, etc&#8230; (même si on va faire en sorte que ça change) mais sachez qu&#8217;on est [...]]]></description>
			<content:encoded><![CDATA[<p>Aujourd&#8217;hui, Hypervisor.fr a <strong>10 ans</strong>.</p>
<p style="text-align: justify;">Je sais qu&#8217;on ne vous offre plus autant de contenu qu&#8217;avant (même si on va faire en sorte que ça change), qu&#8217;on aurait du faire évoluer la charte graphique et refresh les section ZFS, Tools, Presse, etc&#8230; (même si on va faire en sorte que ça change) mais sachez qu&#8217;on est toujours là et pour vous le prouver, on vous offre <a href="http://www.sexigraf.fr/you-are-now-using-version-0-99e-white-forest/" target="_blank">la dernière version de SexiGraf</a> avec plein de nouvelles feature sympa et un petit teasing de notre prochain projet (toujours avec <a href="https://twitter.com/vmdude_fr" target="_blank">vmdude</a>) :</p>
<p style="text-align: center;"><img class="aligncenter" src="https://raw.githubusercontent.com/sexibytes/sexiauditor/dev-db/var/www/admin/images/logo-sexiauditor.jpg" alt="" width="526" height="120" /></p>
<p>Merci à ceux qui se souviennent encore de nous et qui continue à nous soutenir !</p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=5888</wfw:commentRss>
		<slash:comments>6</slash:comments>
		</item>
		<item>
		<title>VCSA to NextCloud</title>
		<link>http://www.hypervisor.fr/?p=5845</link>
		<comments>http://www.hypervisor.fr/?p=5845#comments</comments>
		<pubDate>Fri, 29 Jun 2018 17:16:23 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[HowTo]]></category>
		<category><![CDATA[Tips & Tricks]]></category>
		<category><![CDATA[VCSA]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[backup]]></category>
		<category><![CDATA[nextcloud]]></category>
		<category><![CDATA[webdav]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=5845</guid>
		<description><![CDATA[Lors d&#8217;une update d&#8217;une VSCA 6.7 de lab, nous avons été amusé par l’étape de backup que VMware à ajouté au workflow d&#8217;update de la VAMI (sublime HTML5 Clarity d&#8217;ailleurs). Il faut à présent certifier que l&#8217;on a bien backupé l&#8217;appliance avant de se lancer dans une update :


la VCSA 6.7 introduit le backup automatique [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">Lors d&#8217;une update d&#8217;une VSCA 6.7 de lab, nous avons été amusé par l’étape de backup que VMware à ajouté au workflow d&#8217;update de la VAMI (sublime <a href="https://vmware.github.io/clarity/" target="_blank">HTML5 Clarity</a> d&#8217;ailleurs). Il faut à présent certifier que l&#8217;on a bien backupé l&#8217;appliance avant de se lancer dans une update :</p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/vcsa2nextcloud/vcsa2nextcloud_backup_confirm.png" title="vcsa2nextcloud_backup_confirm_s" rel="lightbox[5845]"><img class="aligncenter size-full wp-image-5882" title="vcsa2nextcloud_backup_confirm_s" src="http://www.hypervisor.fr/wp-content/uploads/2018/06/vcsa2nextcloud_backup_confirm_s.png" alt="" width="509" height="358" /></a></p>
<p style="text-align: center;">
<p style="text-align: justify;"><a href="https://blogs.vmware.com/vsphere/2018/04/introducing-vcenter-server-6-7.html" target="_blank">la VCSA 6.7 introduit le backup automatique programmé</a> mais toujours pas le support du SMB (raison pour laquelle nous avions boudé la feature en 6.5). En fouillant dans la doc, nous nous sommes aperçu que <a href="https://docs.vmware.com/en/VMware-vSphere/6.5/com.vmware.vsphere.install.doc/GUID-AFF34FA6-B7CF-4AE0-9C12-C674F160682C.html" target="_blank">le protocole webdav était supporté</a>, c&#8217;est certainement ce que VMware sous-entend par http et https bien que ce ne soit pas extrêmement clair.</p>
<p style="text-align: justify;"><a href="https://nextcloud.com/"><img class="aligncenter" src="http://files.hypervisor.fr/img/vcsa2nextcloud/Nextcloud_Logo.svg.png" alt="" width="320" height="227" /></a></p>
<p style="text-align: justify;">En grand fan et utilisateur intensif de <a href="https://nextcloud.com/" target="_blank">NextCloud</a> que nous sommes, nous avons testé le backup en secure webdav (https) vers un nextcloud avec succès et ce très facilement (on s&#8217;attendait à des histoires d&#8217;url comme c&#8217;est souvent le cas avec le webdav) :</p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/vcsa2nextcloud/vcsa2nextcloud_edit_backup_sched.png" title="vcsa2nextcloud_edit_backup_sched" rel="lightbox[5845]"><img class="alignnone size-thumbnail wp-image-5862" title="vcsa2nextcloud_edit_backup_sched" src="http://www.hypervisor.fr/wp-content/uploads/2018/06/vcsa2nextcloud_edit_backup_sched-150x150.png" alt="" width="150" height="150" /></a> <a href="http://www.hypervisor.fr/wp-content/uploads/2018/06/vcsa2nextcloud_backup_ok.png" title="vcsa2nextcloud_backup_ok" rel="lightbox[5845]"><img class="alignnone size-thumbnail wp-image-5863" title="vcsa2nextcloud_backup_ok" src="http://www.hypervisor.fr/wp-content/uploads/2018/06/vcsa2nextcloud_backup_ok-150x150.png" alt="" width="150" height="150" /></a> <a href="http://www.hypervisor.fr/wp-content/uploads/2018/06/vcsa2nextcloud_onetime_backup.png" title="vcsa2nextcloud_onetime_backup" rel="lightbox[5845]"><img class="alignnone size-thumbnail wp-image-5864" title="vcsa2nextcloud_onetime_backup" src="http://www.hypervisor.fr/wp-content/uploads/2018/06/vcsa2nextcloud_onetime_backup-150x150.png" alt="" width="150" height="150" /></a></p>
<p style="text-align: center;"><a href="http://www.hypervisor.fr/wp-content/uploads/2018/06/vcsa2nextcloud_nc_webdav.png" title="vcsa2nextcloud_nc_webdav" rel="lightbox[5845]"><img class="aligncenter size-large wp-image-5865" title="vcsa2nextcloud_nc_webdav" src="http://www.hypervisor.fr/wp-content/uploads/2018/06/vcsa2nextcloud_nc_webdav-1024x524.png" alt="" width="491" height="251" /></a></p>
<p style="text-align: left;">Reste plus qu&#8217;à tester le restore maintenant <img class="superemotions" title="Cool" alt="Cool" border="0" src="http://www.hypervisor.fr/wp-includes/images/smilies/icon_cool.gif" /></p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=5845</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>TLBleed : Seeing double?</title>
		<link>http://www.hypervisor.fr/?p=5847</link>
		<comments>http://www.hypervisor.fr/?p=5847#comments</comments>
		<pubDate>Fri, 29 Jun 2018 11:34:57 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Hardware]]></category>
		<category><![CDATA[News]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=5847</guid>
		<description><![CDATA[Les plus vieux d&#8217;entres nous se souviennent surement encore des débuts chaotiques (en environment serveur) de l&#8217;Hyper-Threading en 2002, cet artifice qui permettait de compenser les problèmes de l&#8217;architecture NetBurst d&#8217;Intel.
Compte tenu de son implementation de l&#8217;époque (très bien décrite, en Francais, par nos amis d&#8217;x86-secret), il était souvent recommandé de désactiver l&#8217;HT. Au fil [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">Les plus vieux d&#8217;entres nous se souviennent surement encore des débuts chaotiques (en environment serveur) de l&#8217;<strong><a href="https://en.wikipedia.org/wiki/Hyper-threading" target="_blank">Hyper-Threading</a></strong> en 2002, cet artifice qui permettait de compenser les problèmes de l&#8217;architecture NetBurst d&#8217;Intel.</p>
<p style="text-align: justify;">Compte tenu de son implementation de l&#8217;époque (<a href="http://www.x86-secret.com/articles/cpu/3066/3066-4.htm" target="_blank">très bien décrite, en Francais, par nos amis d&#8217;x86-secret</a>), il était souvent recommandé de désactiver l&#8217;HT. Au fil des évolutions des CPU mais aussi <a href="https://www.vmware.com/content/dam/digitalmarketing/vmware/en/pdf/techpaper/vmware-vsphere-cpu-sched-performance-white-paper.pdf">des versions d&#8217;ESX</a>, la situation a fini par s&#8217;inverser et le grand débat de l&#8217;HT pouvait prendre fin&#8230;</p>
<blockquote>
<p style="text-align: justify;">Internal testing shows that <strong>the recent generation of HT processors displays a higher performance gain</strong> from utilizing both logical processors. This means that the potential performance loss by letting some hyper-threads idle for a fairness reason becomes non trivial.</p>
<p>[...]</p>
<p style="text-align: justify;">On vSphere 5.x, such a benefit is recognized and more CPU time is charged when both logical processors are busy. <strong>The implication of this newer charging model on HT</strong> is that a vCPU which is lagging behind can catch up more quickly even on a partial core, making it less necessary to use only the whole core.</p>
</blockquote>
<p>&#8230;Ou pas, car comme l&#8217;a <a href="http://www.x86-secret.com/articles/cpu/3066/3066-4.htm" target="_blank">décrit x86-secret il y a 16 ans</a> (!) :</p>
<blockquote>
<p style="text-align: justify;">Avec l&#8217;HT, ce sont désormais deux flux d&#8217;instructions qui arrivent à l&#8217;entrée du pipeline. A noter que seule la partie en amont du pipeline est, d&#8217;une certaine façon, &#8220;consciente&#8221; de la présence de ces deux flux provenant de deux threads différents, et le reste du traitement s&#8217;effectue comme s&#8217;il s&#8217;agissait d&#8217;un unique flux d&#8217;instruction. Ainsi, <strong>les deux threads se partagent les unités de calcul et les mémoires caches</strong>.</p>
</blockquote>
<p style="text-align: justify;">Et guess what, <a href="https://www.theregister.co.uk/2018/06/22/intel_tlbleed_key_data_leak/" target="_blank">une équipe d&#8217;un centre de recherche hollandais dit avoir été capable d&#8217;exploiter cette faiblesse connue depuis de années</a> (mais c&#8217;était avant AWS &amp; Co) maintenant baptisée <strong><a href="https://en.wikipedia.org/wiki/TLBleed" target="_blank">TLBleed</a></strong>. En pleine &#8220;crise&#8221; Spectre/Meltdown, Intel semble ne pas avoir l&#8217;intention d’adresser cette faille mais les choses pourraient bien changer <a href="https://arstechnica.com/gadgets/2018/06/tlbleed-a-new-way-to-leak-crypto-keys-on-hyperthreaded-processors/" target="_blank">au moment de la publication d&#8217;ici le mois d’Août</a>. Et oui, AMD est potentiellement impacté aussi <img src='http://www.hypervisor.fr/wp-includes/images/smilies/icon_smile.gif' alt=':)' class='wp-smiley' /> </p>
<p style="text-align: justify;"><a href="http://www.hypervisor.fr/wp-content/uploads/2018/06/shutterstock_generic_heart_bleed.jpg" title="shutterstock_generic_heart_bleed" rel="lightbox[5847]"><img class="aligncenter size-full wp-image-5850" title="shutterstock_generic_heart_bleed" src="http://www.hypervisor.fr/wp-content/uploads/2018/06/shutterstock_generic_heart_bleed.jpg" alt="" width="442" height="293" /></a></p>
<p style="text-align: justify;">Et surprise, l&#8217;équipe des devs du projet OpenBSD (<a href="https://en.wikipedia.org/wiki/OpenBSD" target="_blank">&#8220;As of February 2018, only two remote vulnerabilities have ever been found in the default install, <strong>in a period of almost 22 years</strong>&#8220;</a>) a décidé de désactiver l&#8217;HT dans les nouvelles releases. Et c&#8217;est d&#8217;ailleurs pour ca que toute l&#8217;histoire est remonté à la surface.</p>
<p style="text-align: justify;">On notera au passage que <a href="https://www.ssi.gouv.fr/uploads/2015/03/NP_ConfigMateriel.pdf" target="_blank">l&#8217;ANSSI recommandait déjà de désactiver l&#8217;HT depuis 2015 au moins, pour les mêmes raisons</a>.</p>
<p>C&#8217;est donc le moment de sortir les popcorn&#8217;s. <a href="http://www.hypervisor.fr/?p=5298" target="_blank">Quand on se souvient de l&#8217;affaire du salage de TPS pour des histoires de differences de latences de cache en environnement contrôlé</a>, on se régale de la com VMware qui justifiera la désactivation d&#8217;HT dans ESX.</p>
<p><a href="http://www.hypervisor.fr/wp-content/uploads/2018/06/seeingdouble.gif" title="seeingdouble" rel="lightbox[5847]"><img class="aligncenter size-full wp-image-5852" title="seeingdouble" src="http://www.hypervisor.fr/wp-content/uploads/2018/06/seeingdouble.gif" alt="" width="150" height="132" /></a></p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=5847</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>vExpert &amp; vExpert VSAN 2018</title>
		<link>http://www.hypervisor.fr/?p=5837</link>
		<comments>http://www.hypervisor.fr/?p=5837#comments</comments>
		<pubDate>Fri, 08 Jun 2018 10:32:27 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[VMware]]></category>
		<category><![CDATA[VSAN]]></category>
		<category><![CDATA[vExpert]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=5837</guid>
		<description><![CDATA[Comme chaque année, c&#8217;est avec honneur que nous rejoignons les rangs des VMware vExpert et, plus récemment, ceux du vExpert VSAN progam. Une fois de plus nous tenons à remerciez VMware et tout ceux qui nous soutiennent.

]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">Comme chaque année, c&#8217;est avec honneur que nous rejoignons <a href="https://blogs.vmware.com/vmtn/2018/03/vexpert-2018-award-announcement.html" target="_blank">les rangs des VMware vExpert</a> et, plus récemment, <a href="https://blogs.vmware.com/vmtn/2018/06/vexpert-vsan-2018-announcement.html" target="_blank">ceux du vExpert VSAN progam</a>. Une fois de plus nous tenons à remerciez VMware et tout ceux qui nous soutiennent.</p>
<p style="text-align: center;"><img class="alignnone" src="http://files.hypervisor.fr/img/vExpert-2018-Badge-s.png" alt="" width="265" height="179" /><img class="alignnone" src="http://files.hypervisor.fr/img/vExpert-2018-VSAN-Badge-s.png" alt="" width="265" height="179" /></p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=5837</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>VMXNET3 = 10GbE ?</title>
		<link>http://www.hypervisor.fr/?p=5822</link>
		<comments>http://www.hypervisor.fr/?p=5822#comments</comments>
		<pubDate>Tue, 11 Jul 2017 13:50:53 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Kb]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[Bullshit]]></category>
		<category><![CDATA[VMTools]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=5822</guid>
		<description><![CDATA[Nous nous décidons à écrire ce billet après avoir entendu par la millième fois &#8220;Le réseau est lent dans ma VM, on peut pas mettre une carte vmxnet3 pour avoir du 10 giga?&#8221;. Je sais c&#8217;est dur à lire mais c&#8217;est la triste vérité.
Donc pour donner une url plutôt que de retaper une fois de [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">Nous nous décidons à écrire ce billet après avoir entendu par la millième fois <strong><em>&#8220;Le réseau est lent dans ma VM, on peut pas mettre une carte vmxnet3 pour avoir du 10 giga?&#8221;</em></strong>. Je sais c&#8217;est dur à lire mais c&#8217;est la triste vérité.</p>
<p style="text-align: justify;">Donc pour donner une url plutôt que de retaper une fois de plus l’explication, voici l&#8217;extrait du <a href="https://www.vmware.com/content/dam/digitalmarketing/vmware/en/pdf/techpaper/virtual_networking_concepts.pdf" target="_blank">VMware Virtual Networking Concepts</a> qui fait foi :</p>
<blockquote>
<p style="text-align: justify;"><strong>The speed and duplex settings found in physical networking are not relevant in the virtual network</strong>, because all the data transfer takes place in the host system’s RAM, nearly instantaneously and without the possibility of collisions or other signaling-related errors.</p>
</blockquote>
<p>Et si vous en aviez encore besoin, en voici la preuve :</p>
<div id="attachment_5828" class="wp-caption aligncenter" style="width: 501px"><a href="http://www.hypervisor.fr/wp-content/uploads/2017/07/e1000_3GbE.png" title="e1000_3GbE" rel="lightbox[5822]"><img class="size-large wp-image-5828   " title="e1000_3GbE" src="http://www.hypervisor.fr/wp-content/uploads/2017/07/e1000_3GbE-1024x338.png" alt="" width="491" height="162" /></a><p class="wp-caption-text">iperf win64 entre 2 cartes e1000 &quot;bridée&quot; à 100Mo</p></div>
<p style="text-align: center;">
<div id="attachment_5829" class="wp-caption aligncenter" style="width: 511px"><a href="http://www.hypervisor.fr/wp-content/uploads/2017/07/vmxnet3_30G.png" title="vmxnet3_30G" rel="lightbox[5822]"><img class="size-full wp-image-5829" title="vmxnet3_30G" src="http://www.hypervisor.fr/wp-content/uploads/2017/07/vmxnet3_30G.png" alt="" width="501" height="535" /></a><p class="wp-caption-text">iperf entre 2 cartes vmxnet3</p></div>
<p style="text-align: center;">
<p style="text-align: center;">
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=5822</wfw:commentRss>
		<slash:comments>1</slash:comments>
		</item>
		<item>
		<title>VIX &amp; Kerberos Double Hop</title>
		<link>http://www.hypervisor.fr/?p=5815</link>
		<comments>http://www.hypervisor.fr/?p=5815#comments</comments>
		<pubDate>Fri, 07 Jul 2017 11:03:29 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Kb]]></category>
		<category><![CDATA[Tips & Tricks]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[kerberos]]></category>
		<category><![CDATA[PowerCLI]]></category>
		<category><![CDATA[powershell]]></category>
		<category><![CDATA[VIX]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=5815</guid>
		<description><![CDATA[Lors d&#8217;une petite session de PowerCLI avec les célèbres (mais bientôt deprecated) VIX APIs, nous nous sommes heurté à une limite de sécurité bien connue des admins Microsoft: le Kerberos Double Hop.
Pour résumer, nous avions besoin d’exécuter un script situé sur un share depuis un ensemble de VM et nous avons bien évidement tenté de [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">Lors d&#8217;une petite session de PowerCLI avec les célèbres (<a href="https://www.vmware.com/support/developer/vix-api/VIX-1.15-ReleaseNotes.html" target="_blank">mais bientôt deprecated</a>) VIX APIs, nous nous sommes heurté à une limite de sécurité bien connue des admins Microsoft: le <a href="https://blogs.technet.microsoft.com/askds/2008/06/13/understanding-kerberos-double-hop/" target="_blank">Kerberos Double Hop</a>.</p>
<p style="text-align: justify;">Pour résumer, nous avions besoin d’exécuter un script situé sur un share depuis un ensemble de VM et nous avons bien évidement tenté de profiter du fait que <a href="http://www.hypervisor.fr/?p=5070" target="_blank">VIX supporte le SSO</a>, comme des gros fainéants. Et là, <a href="https://weblogs.asp.net/owscott/iis-windows-authentication-and-the-double-hop-issue" target="_blank">c&#8217;est le drame</a>:</p>
<blockquote>
<p style="text-align: justify;">When using Integrated Security, anonymous access is disabled, and impersonation is turned on, <strong>a security measure kicks in and doesn&#8217;t allow your site to access resources on any network servers.  This includes access to a UNC path</strong> directly from IIS or SQL Server using Windows authentication.</p>
</blockquote>
<p>Il nous a suffit de <strong>passer les credentials à l&#8217;Invoke-VMScript pour que l&#8217;UNC devienne accessible</strong>:</p>
<p style="text-align: center;"><a href="http://www.hypervisor.fr/wp-content/uploads/2017/07/VIX_Kerb_2x_Hop.png" title="VIX_Kerb_2x_Hop" rel="lightbox[5815]"><img class="aligncenter size-full wp-image-5816" title="VIX_Kerb_2x_Hop" src="http://www.hypervisor.fr/wp-content/uploads/2017/07/VIX_Kerb_2x_Hop.png" alt="" width="486" height="384" /></a></p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=5815</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>RegisterVM_task onliner</title>
		<link>http://www.hypervisor.fr/?p=5798</link>
		<comments>http://www.hypervisor.fr/?p=5798#comments</comments>
		<pubDate>Tue, 09 May 2017 13:54:52 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Tips & Tricks]]></category>
		<category><![CDATA[VMware]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=5798</guid>
		<description><![CDATA[Raiders Of The Lost VMX est l&#8217;un des plus vieux et des plus célèbres script de Luc Dekens. Pour rappel il permet, entre autres, d&#8217;enregistrer en masse des vmx &#8220;perdus&#8221;. Très pratique pour les tests de Disaster Recovery en mode artisanal&#8230;


Apres un crash de carte SD de boot, sans backup du state.tgz (sinon c&#8217;est pas [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;"><a href="http://www.lucd.info/2009/12/02/raiders-of-the-lost-vmx/" target="_blank">Raiders Of The Lost VMX</a> est l&#8217;un des plus vieux et des plus célèbres script de <a href="https://twitter.com/LucD22" target="_blank">Luc Dekens</a>. Pour rappel il permet, entre autres, d&#8217;enregistrer en masse des vmx &#8220;perdus&#8221;. Très pratique pour les tests de Disaster Recovery en mode artisanal&#8230;</p>
<p style="text-align: center;"><img class="aligncenter" src="http://files.hypervisor.fr/img/RegisterVM_Ghetto.png" alt="" width="504" height="230" /></p>
<p style="text-align: justify;">
<p style="text-align: justify;">Apres un crash de carte SD de boot, sans backup du state.tgz (sinon c&#8217;est pas drôle), nous devions ré-enregistrer les VM présentent sur ce host en standalone. Ces VM étant des replicas Veeam, nous ne pouvions pas risquer de perdre le MoRef, donc obligation de les enregistrer en direct sur l&#8217;ESX fraichement redeployé. Et comme il y en avait plus de 150, pas question de le faire à la main donc pourquoi ne pas utiliser le script de Luc ? Oui pourquoi ? Et bien parce que nous voulions le faire avec un oneliner bien sur !</p>
<p style="text-align: justify;">Voici donc <strong>un oneliner qui va chercher les fichiers vmx dans le datastore </strong><strong>&#8220;<strong>datastore1</strong>&#8220;</strong><strong> </strong>(<span style="text-decoration: underline;">à changer au début du oneliner</span>)<strong> et les enregistrer avec leur nom original </strong>(DisplayName dans le vmx)<strong> sur l&#8217;ESX</strong>.</p>
<pre class="brush: powershell; title: ; notranslate">Get-View -ViewType Datastore -Property Name,Browser -Filter @{&quot;Name&quot; = &quot;^datastore1$&quot;}|%{(Get-View $_.Browser).SearchDatastoreSubFolders($(&quot;[&quot; + $_.Name + &quot;]&quot;),(New-Object VMware.Vim.HostDatastoreBrowserSearchSpec -Property @{matchPattern=(&quot;*.vmx&quot;)}))}|%{(Get-View -ViewType Folder -Property Name -Filter @{&quot;Name&quot; = &quot;^vm&quot;}).GetType().GetMethod(&quot;RegisterVM_Task&quot;).Invoke($(Get-View -ViewType Folder -Property Name -Filter @{&quot;Name&quot; = &quot;^vm&quot;}),@($($_.FolderPath + &quot;/&quot; + $_.File.Path),$null,$false,(Get-View -ViewType ResourcePool -Property Name -Filter @{&quot;Name&quot; = &quot;Resources&quot;}).MoRef,$null))}
</pre>
<p style="text-align: justify;">1ere chose importante, <strong>ce onliner doit impérativement être exécuté depuis l&#8217;ESX et non le vcenter pour ne pas perde le MoRef</strong> des vm, si toute fois elles existent déjà dans le vCenter. Donc c&#8217;est un connect-viserver sur l&#8217;ESX qu&#8217;il convient d’exécuter dans votre console PowerCLI.</p>
<p style="text-align: justify;">2eme chose, la difficulté de ce oneliner à été de faire passer un $null pour le paramètre &#8220;name&#8221; à la method <a href="https://pubs.vmware.com/vi3/sdk/ReferenceGuide/vim.Folder.html#registerVm" target="_blank">RegisterVM_Task</a> :</p>
<blockquote><p>If this parameter is not set, the displayName configuration parameter of the virtual machine is used</p></blockquote>
<p style="text-align: justify;">Ca a l&#8217;air de rien mais en l&#8217;état c&#8217;est impossible <a href="https://communities.vmware.com/message/1156581#1156581" target="_blank">et c&#8217;est grâce à un vieux post de Luc</a> (encore lui !) qui retranscrit une solution provenant du support VMware :</p>
<blockquote><p>VMware Support came up with a solution.<br />
Big thanks to Jain</p>
<p><strong>The problem was basically how to &#8220;not set&#8221; the name parameter from within PowerShell</strong>.</p></blockquote>
<p>Nous avons donc pu intégrer ce bout de script au notre. Enjoy!</p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=5798</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>The (old) Ladykillers</title>
		<link>http://www.hypervisor.fr/?p=5789</link>
		<comments>http://www.hypervisor.fr/?p=5789#comments</comments>
		<pubDate>Wed, 12 Apr 2017 17:51:49 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Tips & Tricks]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[oneliner]]></category>
		<category><![CDATA[PowerCLI]]></category>
		<category><![CDATA[powershell]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=5789</guid>
		<description><![CDATA[Pour bien commencer le printemps et son grand ménage traditionnel, nous vous proposons un petit oneliner qui vous affichera la liste des vm éteintes avec la date du poweroff basée sur la dernière modification du fichier nvram (qui coincide au fameux &#8220;VMX has left the building&#8221; dans le vmware.log) donc pas de dépendance avec la [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">Pour bien commencer le printemps et son grand ménage traditionnel, nous vous proposons un petit oneliner qui vous affichera la liste des vm éteintes avec la date du poweroff <strong>basée sur la dernière modification du fichier nvram</strong> (qui coincide au fameux &#8220;VMX has left the building&#8221; dans le vmware.log) donc pas de dépendance avec la stratégie de rétention des tasks et events de votre VCDB.</p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/The_old_Ladykillers/ds_browser_nvram.png" title="ds_browser_nvram" rel="lightbox[5789]"><img class="alignnone size-thumbnail wp-image-5790" title="ds_browser_nvram" src="http://www.hypervisor.fr/wp-content/uploads/2017/04/ds_browser_nvram-150x150.png" alt="" width="150" height="150" /></a> <a href="http://files.hypervisor.fr/img/The_old_Ladykillers/vmx_has_left_the_build_log.png" title="vmx_has_left_the_build_log" rel="lightbox[5789]"><img class="alignnone size-thumbnail wp-image-5791" title="vmx_has_left_the_build_log" src="http://www.hypervisor.fr/wp-content/uploads/2017/04/vmx_has_left_the_build_log-150x150.png" alt="" width="150" height="150" /></a></p>
<p style="text-align: justify;">
<p style="text-align: justify;">Nous avons ajouté la taille de la VM pour vous motiver à faire un VeeamZIP et à en finir définitivement avec ces VM qui risque d&#8217;être redémarrées après un crash d&#8217;ESX&#8230;</p>
<p style="text-align: center;"><img class="aligncenter" src="http://files.hypervisor.fr/img/The_old_Ladykillers/old_vm_off_ogv.png" alt="" width="495" height="596" /></p>
<pre class="brush: powershell; title: ; notranslate">get-view -viewtype virtualmachine -property name,runtime,layoutex|?{$_.Runtime.PowerState -eq &quot;poweredOff&quot; -and $_.Runtime.ConnectionState -eq &quot;connected&quot; -and !$_.config.template}|?{$_.LayoutEx.File|?{$_.type -match &quot;nvram&quot;}}|%{$_|select Name, @{n=&quot;Modification&quot;;e={((get-view (get-view -viewtype datastore –filter @{&quot;Name&quot;=($_.LayoutEx.File|?{$_.type -eq &quot;nvram&quot;}).name.split(&quot;[]&quot;)[1]}).browser).SearchDatastore(($_.LayoutEx.File|?{$_.type -eq &quot;nvram&quot;}).name.split(&quot;/&quot;)[0],(New-Object VMware.Vim.HostDatastoreBrowserSearchSpec -property @{matchPattern=(&quot;*.nvram&quot;); details=(New-Object VMware.Vim.FileQueryFlags -property @{modification=$true})}))|%{$_.file}).Modification}}, @{n=&quot;SizeGB&quot;;e={[math]::round(($_.LayoutEx.File|measure -Property size -sum).sum/1GB,1)}}}</pre>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=5789</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>Welcome to the 2017 vExpert Program</title>
		<link>http://www.hypervisor.fr/?p=5784</link>
		<comments>http://www.hypervisor.fr/?p=5784#comments</comments>
		<pubDate>Wed, 12 Apr 2017 17:00:01 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[News]]></category>
		<category><![CDATA[vExpert]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=5784</guid>
		<description><![CDATA[Cela fait déjà plus d&#8217;un mois mais je me devais d&#8217;adresser un message de remerciement comme le veut la coutume et j&#8217;en profite pour rassurer les fanatiques d&#8217;Hyper-V sur la rumeur de fermeture d&#8217;Hypervisor.fr : j&#8217;étais juste un peu occupé à plein d&#8217;autres choses mais l&#8217;histoire ne s&#8217;arrête évidement pas là&#8230;
Donc encore merci à tous [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">Cela fait déjà plus d&#8217;un mois mais je me devais d&#8217;adresser un message de remerciement comme le veut la coutume et j&#8217;en profite pour rassurer les fanatiques d&#8217;Hyper-V sur <strong>la rumeur de fermeture d&#8217;Hypervisor.fr</strong> : j&#8217;étais juste un peu occupé à plein d&#8217;autres choses mais l&#8217;histoire ne s&#8217;arrête évidement pas là&#8230;</p>
<p>Donc encore merci à tous et stay tuned <img src='http://www.hypervisor.fr/wp-includes/images/smilies/icon_wink.gif' alt=';)' class='wp-smiley' /> </p>
<p style="text-align: center;"><a href="https://blogs.vmware.com/vmtn/2017/02/vexpert-2017-award-announcement.html"><img class="aligncenter" src="http://files.hypervisor.fr/img/vExpert-2017-Badge-s.png" alt="" width="256" height="169" /></a></p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=5784</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>vExpert VSAN 2016</title>
		<link>http://www.hypervisor.fr/?p=5779</link>
		<comments>http://www.hypervisor.fr/?p=5779#comments</comments>
		<pubDate>Tue, 23 Aug 2016 16:45:32 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[News]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[VSAN]]></category>
		<category><![CDATA[vExpert]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=5779</guid>
		<description><![CDATA[Depuis quelques jours, je fais parti, ainsi que mon très cher &#8220;confrère&#8221; et ami Frédéric, du cercle très fermé des vExpert VSAN 2016.
C&#8217;est un honneur que nous devons en grande parti au travail effectué sur SexiGraf ainsi qu&#8217;à la communauté qui nous a largement soutenu dans notre démarche.
Merci à tous pour votre implication, vos retours [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;"><a href="https://blogs.vmware.com/vmtn/2016/08/vexpert-2016-vsan-announcement.html" target="_blank">Depuis quelques jours</a>, je fais parti, ainsi que mon très cher &#8220;confrère&#8221; et ami <a href="http://www.vmdude.fr/news/vexpert-vsan-2016/" target="_blank">Frédéric</a>, du cercle très fermé des <strong>vExpert VSAN 2016</strong>.</p>
<p style="text-align: justify;">C&#8217;est un honneur que nous devons en grande parti au travail effectué sur <a href="http://www.sexigraf.fr/vsan-sexipanels/" target="_blank">SexiGraf</a> ainsi qu&#8217;à la communauté qui nous a largement soutenu dans notre démarche.</p>
<p style="text-align: justify;">Merci à tous pour votre implication, vos retours et vos critique qui nous permettent de faire avancer cet outil dans la bonne direction!</p>
<p><img class="aligncenter" src="http://files.hypervisor.fr/img/vExpert_vSAN_2016_s.jpg" alt="" width="256" height="169" /></p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=5779</wfw:commentRss>
		<slash:comments>4</slash:comments>
		</item>
		<item>
		<title>VSAN SwapThickProvisionDisabled OneLiner</title>
		<link>http://www.hypervisor.fr/?p=5766</link>
		<comments>http://www.hypervisor.fr/?p=5766#comments</comments>
		<pubDate>Tue, 23 Aug 2016 16:30:30 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[News]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[VSAN]]></category>
		<category><![CDATA[overcommit]]></category>
		<category><![CDATA[PowerCLI]]></category>
		<category><![CDATA[powershell]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=5766</guid>
		<description><![CDATA[Alors que nous en rêvions depuis 10 ans pour VMFS, VMware a introduit dans VSAN 6.2 la possibilité de &#8220;thin provisioner&#8221; la swap des VM :
In Virtual SAN 6.2, we introduced an advanced host setting called SwapThickProvisionDisabled, when enabled, removes the space reservation for .vswp files.
Une preuve de plus, s&#8217;il en fallait, que la bataille [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">Alors que nous en rêvions depuis 10 ans pour VMFS, <a href="https://blogs.vmware.com/virtualblocks/2016/02/24/vsan62-powercli-sparse-vswp/#respond" target="_blank">VMware a introduit dans VSAN 6.2 la possibilité de &#8220;thin provisioner&#8221; la swap des VM</a> :</p>
<blockquote><p>In Virtual SAN 6.2, we introduced an advanced host setting called SwapThickProvisionDisabled, when enabled, removes the space reservation for .vswp files.</p></blockquote>
<p style="text-align: justify;">Une preuve de plus, s&#8217;il en fallait, que la bataille du SDS/HCI est rude jusqu&#8217;à en rogner ses best practices. En effet, nous rappelons à ceux qui auraient un trou de mémoire que placer le fichier de swap d&#8217;une VM sur un stockage &#8220;thin provisioné&#8221; va à l&#8217;encontre de toutes <a href="http://www.vmware.com/pdf/Perf_Best_Practices_vSphere5.0.pdf" target="_blank">les bonnes règles de gestion</a> et <a href="https://pubs.vmware.com/vsphere-55/topic/com.vmware.vsphere.resmgmt.doc/GUID-AC40823A-695B-438A-A8F2-4B7C51A0D014.html" target="_blank">d&#8217;overcommit</a>.</p>
<blockquote><p><strong> Do not store swap files on thin-provisioned LUNs</strong>. Running a virtual machine with a swap file that is stored on a thin-provisioned LUN can cause swap file growth failure, which can lead to termination of the virtual machine.</p></blockquote>
<blockquote><p>Regardless of the storage type or location used for the regular swap file, for the best performance, and to avoid the possibility of running out of space, <strong>swap files should not be placed on thin-provisioned storage</strong>.</p></blockquote>
<p>Qu&#8217;importe, ca nous arrange bien aussi et pour l&#8217;occasion nous avons fait peter un petit oneliner pour fixer la bonne valeur :</p>
<pre class="brush: powershell; title: ; notranslate">Get-VMHost|%{(Get-EsxCli -VMHost $_).system.settings.advanced.set($null,&quot;1&quot;,&quot;/VSAN/SwapThickProvisionDisabled&quot;,$null)}</pre>
<p>Et un autre pour vérifier que c&#8217;est bien appliqué :</p>
<pre class="brush: powershell; title: ; notranslate">Get-VMHost|%{(Get-EsxCli -VMHost $_).system.settings.advanced.list($null,&quot;/VSAN/SwapThickProvisionDisabled&quot;,$null)}</pre>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/SwapThickProvisionDisabled.png"><img class="aligncenter" src="http://files.hypervisor.fr/img/SwapThickProvisionDisabled.png" alt="" width="526" height="249" /></a></p>
<p style="text-align: left;">Avec un petit coup de <a href="http://www.sexigraf.fr/vsan-sexipanels/#vsan-space-usage-report" target="_blank">SexiGraf </a>pour monitorer le tout, on est bon :</p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/VSAN_SwapThickProvisionDisabled.png" target="_blank"><img class="aligncenter" src="http://files.hypervisor.fr/img/VSAN_SwapThickProvisionDisabled.png" alt="" width="515" height="275" /></a></p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=5766</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>Oh My Cloud! &#8211; MAJ</title>
		<link>http://www.hypervisor.fr/?p=5594</link>
		<comments>http://www.hypervisor.fr/?p=5594#comments</comments>
		<pubDate>Sun, 17 Apr 2016 23:26:32 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Citrix XenServer]]></category>
		<category><![CDATA[Hardware]]></category>
		<category><![CDATA[News]]></category>
		<category><![CDATA[Bullshit]]></category>
		<category><![CDATA[cloud]]></category>
		<category><![CDATA[DPI]]></category>
		<category><![CDATA[EPT]]></category>
		<category><![CDATA[hack]]></category>
		<category><![CDATA[isolation]]></category>
		<category><![CDATA[MITM]]></category>
		<category><![CDATA[NSA]]></category>
		<category><![CDATA[security]]></category>
		<category><![CDATA[Snowden]]></category>
		<category><![CDATA[vmm]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=5594</guid>
		<description><![CDATA[MAJ 28/05/2016 : Sur XenServer 7, cette feature a un joli nom, HyperVisor Memory Introspection (HVMI)
Nous profitons du recent article de The Information qui décrit la volonté d&#8217;Apple de construire ses propres serveurs en raison d&#8217;une crise de paranoïa, pour partager avec vous une video découverte récemment traitant de Virtual Machine Introspection, une fonctionnalité de l&#8217;API Memory Inspection [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;"><em><span style="color: #ff0000;">MAJ 28/05/2016</span> : <a href="https://www.citrix.com/blogs/2016/05/24/xenserver-7-whats-new/" target="_blank">Sur XenServer 7</a>, cette feature a un joli nom, <strong>HyperVisor Memory Introspection</strong> (<a href="http://files.hypervisor.fr/img/hvmi.jpg" target="_blank">HVMI</a>)</em></p>
<p style="text-align: justify;">Nous profitons du recent article de <a href="http://arstechnica.com/information-technology/2016/03/report-apple-designing-its-own-servers-to-avoid-snooping/">The Information</a> qui décrit la volonté d&#8217;Apple de construire ses propres serveurs en raison d&#8217;une crise de paranoïa, pour partager avec vous une video découverte récemment traitant de <a href="http://wiki.xenproject.org/wiki/Virtual_Machine_Introspection"><strong>Virtual Machine Introspection</strong></a>, une fonctionnalité de l&#8217;API Memory Inspection de l&#8217;Hyperviseur Xen (utilisé par Amazon pour AWS par exemple&#8230;).</p>
<p style="text-align: justify;">Cette vidéo est présentée par Tamas K Lengyel, chercheur en sécurité et développeur actif sur les projets Xen Project Hypervisor, <a href="http://libvmi.com/">LibVMI</a> et <a href="http://drakvuf.com/">DRAKVUF</a> (Dynamic Malware Analysis system). La description faites sur la home du site de ce dernier est particulièrement flipante :</p>
<blockquote>
<p style="text-align: justify;">DRAKVUF is an <strong>agentless dynamic malware analysis system</strong> built on Xen, LibVMI, Volatility and Rekall. It allows for in-depth execution tracing of malware samples and extracting deleted files from memory, <strong>all without having to install any special software within the virtual machine</strong> used for analysis.</p>
</blockquote>
<p style="text-align: justify;">Un peu avant la 3eme minute de la présentation, vous aller voir Tamas <strong>lancer la calculatrice de Windows 7 dans une VM, depuis l&#8217;hyperviseur, en &#8220;hijackant&#8221; la mémoire du GuestOS</strong> à l&#8217;aide de l&#8217;API VMI de Xen. Si si.</p>
<p style="text-align: center;"><object width="500" height="300"><param name="movie" value="http://www.youtube.com/v/k0BVFyyuvRA&#038;hl=en_US&#038;fs=1&#038;"></param><param name="allowFullScreen" value="true"></param><param name="allowscriptaccess" value="always"></param><embed src="http://www.youtube.com/v/k0BVFyyuvRA&#038;hl=en_US&#038;fs=1&#038;" type="application/x-shockwave-flash" allowscriptaccess="always" allowfullscreen="true" width="500" height="300"></embed></object></p>
<p>Ce projet est loin d&#8217;être recent puisqu&#8217;il date de 2011 et a bien été amélioré depuis :</p>
<blockquote>
<p style="text-align: justify;">In Xen 4.6 a number of significant improvements to Xen’s Virtual Machine Introspection (VMI) subsystems make it the best hypervisor for security applications. Hardware support for VM Functions (VMFunc) available on Intel’s 4th generation Haswell CPUs and Atom Silvermont CPUs decreases overheads. Support for Virtualization Exceptions is now available on Intel’s 5th generation Broadwell CPUs and Atom Goldmont CPUs has significantly reduced latency. VMI support for ARM CPUs has also been added.</p>
</blockquote>
<p>On vous laisse méditer sur les fonctions clefs du projets pendant que votre DSI se félicite d&#8217;avoir migré tout son système d&#8217;information sur Azure&#8230;</p>
<ul>
<li><strong>Agentless start of malware execution</strong>.</li>
<li>Agentless monitoring of Windows internal kernel functions.</li>
<li>Guest multi-vCPU support.</li>
<li>Tracing heap allocations.</li>
<li>Tracing files being accessed.</li>
<li>Extracting files from memory before they are deleted.</li>
<li><strong>Cloning of analysis VMs via copy-on-write memory and disk</strong>.</li>
</ul>
<p><img class="aligncenter" src="http://files.hypervisor.fr/img/hackers-cast-at-phonebooths.jpg" alt="" width="500" height="308" /></p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=5594</wfw:commentRss>
		<slash:comments>1</slash:comments>
		</item>
		<item>
		<title>ftp.dell.com direct iDRAC update &#8211; MAJ</title>
		<link>http://www.hypervisor.fr/?p=5696</link>
		<comments>http://www.hypervisor.fr/?p=5696#comments</comments>
		<pubDate>Sun, 03 Apr 2016 23:04:53 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Hardware]]></category>
		<category><![CDATA[Tips & Tricks]]></category>
		<category><![CDATA[VSAN]]></category>
		<category><![CDATA[Dell]]></category>
		<category><![CDATA[iDRAC]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=5696</guid>
		<description><![CDATA[MAJ 19/11/2021 : Dell a coupé le service ftp à partir de février 2021 mais il est possible de passer en https pour les idrac qui le supporte (une maj est parfois nécessaire) :
Dell EMC has retired ftp.dell.com and transitioned exclusively to a global downloads site with regional hosted repositories .Feb 21, 2021


MAJ 27/07/2016 : [...]]]></description>
			<content:encoded><![CDATA[<p><em><span style="color: #ff0000;">MAJ 19/11/2021</span> : Dell a coupé le service ftp à partir de février 2021 mais <a href="https://www.dell.com/support/kbdoc/en-us/000132986/dell-emc-catalog-links-for-poweredge-servers" target="_blank">il est possible de passer en https pour les idrac qui le supporte</a> (une maj est <em>parfois </em>nécessaire) :</em></p>
<blockquote><p>Dell EMC has retired ftp.dell.com and transitioned exclusively to a global downloads site with regional hosted repositories .Feb 21, 2021</p></blockquote>
<p style="text-align: center;"><em><a href="https://files.hypervisor.fr/img/ftp_dell_com/idrac_https.png" target="_blank"><img class="aligncenter" src="https://files.hypervisor.fr/img/ftp_dell_com/idrac_https.png" alt="" width="476" height="330" /></a><br />
</em></p>
<p><em><span style="color: #ff0000;">MAJ 27/07/2016</span> : <a href="https://twitter.com/mindflux/status/753976102394093569" target="_blank">Il semblerait</a> que la valeur &#8220;<strong>/catalog</strong>&#8221; pour la <strong>Catalog Location</strong> offre des versions nettement plus up2date.</em></p>
<p>Parmi <a href="http://www.dell.com/support/article/us/en/19/SLN293301/en" target="_blank">les nombreuses méthodes pour upgrader les firmware des composants d&#8217;un serveur Dell</a>, il y en une qui nous intéressait beaucoup mais que nous n&#8217;arrivions pas à faire fonctionner : <a href="http://en.community.dell.com/techcenter/extras/m/white_papers/20438129/download" target="_blank">la méthode <strong>ftp.dell.com</strong></a></p>
<blockquote><p>The repository could either be <strong>ftp.dell.com</strong> or a user generated repository on the local network share.</p></blockquote>
<p style="text-align: justify;">Sur les serveurs Dell relativement récents, il est en effet possible de &#8220;stager&#8221; et &#8220;scheduler&#8221; toutes les updates matérielles possibles directement depuis l&#8217;iDRAC en live depuis le ftp Dell. Et <strong>depuis la version v.2.21.21.21 les firmwares des HDD/SSD sont complètement supportés</strong> même sur un contrôleur en mode HBA (passthrough).</p>
<p style="text-align: justify;">Malheureusement impossible de trouver dans les docs Dell les informations nécessaires pour y arriver :</p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/ftp_dell_com/idrac_ftp_ko.png" title="idrac_ftp_ko" rel="lightbox[5696]"><img class="aligncenter size-medium wp-image-5701" title="idrac_ftp_ko" src="http://www.hypervisor.fr/wp-content/uploads/2016/04/idrac_ftp_ko-299x242.png" alt="" width="299" height="242" /></a></p>
<p style="text-align: left;">Mais ça c’était avant de connaitre Lionel, Onsite System Engineer chez Dell, qui nous a donné le trick :</p>
<p style="text-align: left;"><a href="http://files.hypervisor.fr/img/ftp_dell_com/idrac_ftp_ok.png" title="idrac_ftp_ok" rel="lightbox[5696]"><img class="aligncenter size-medium wp-image-5712" title="idrac_ftp_ok" src="http://www.hypervisor.fr/wp-content/uploads/2016/04/idrac_ftp_ok-300x274.png" alt="" width="300" height="274" /></a></p>
<p style="text-align: center;">
<blockquote><p>FTP Address : <strong>ftp.dell.com</strong><br />
User Name : <strong>anonymous</strong><br />
Password : <strong>user@domain.com</strong><br />
Catalog Location : <strong>/</strong><br />
Catalog Filename : <strong>Catalog.xml.gz</strong></p></blockquote>
<p style="text-align: left;">D’après le serveur ftp de Dell, le password doit etre un e-mail : &#8220;<strong>Anonymous access allowed, send identity (e-mail name) as password.</strong>&#8220;</p>
<p style="text-align: left;">Ensuite vous rebootez quand vous voulez et les patchs sont appliqués (rapidement) par le Lifecycle Controler :</p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/ftp_dell_com/idrac_ftp_ok_install.png" title="idrac_ftp_ok_install" rel="lightbox[5696]"><img class="alignnone size-thumbnail wp-image-5714" title="idrac_ftp_ok_install" src="http://www.hypervisor.fr/wp-content/uploads/2016/04/idrac_ftp_ok_install-150x150.png" alt="" width="150" height="150" /></a> <a href="http://files.hypervisor.fr/img/ftp_dell_com/idrac_ftp_ok_reboot.png" title="idrac_ftp_ok_reboot" rel="lightbox[5696]"><img class="alignnone size-thumbnail wp-image-5715" title="idrac_ftp_ok_reboot" src="http://www.hypervisor.fr/wp-content/uploads/2016/04/idrac_ftp_ok_reboot-150x150.png" alt="" width="150" height="150" /></a> <a href="http://files.hypervisor.fr/img/ftp_dell_com/idrac_ftp_ok_lifecycle.png" title="idrac_ftp_ok_lifecycle" rel="lightbox[5696]"><img class="alignnone size-thumbnail wp-image-5716" title="idrac_ftp_ok_lifecycle" src="http://www.hypervisor.fr/wp-content/uploads/2016/04/idrac_ftp_ok_lifecycle-150x150.png" alt="" width="150" height="150" /></a> <a href="http://files.hypervisor.fr/img/ftp_dell_com/idrac_ftp_ok_flash.png" title="idrac_ftp_ok_flash" rel="lightbox[5696]"><img class="alignnone size-thumbnail wp-image-5717" title="idrac_ftp_ok_flash" src="http://www.hypervisor.fr/wp-content/uploads/2016/04/idrac_ftp_ok_flash-150x150.png" alt="" width="150" height="150" /></a></p>
<p style="text-align: left;">Merci Lionel <img src='http://www.hypervisor.fr/wp-includes/images/smilies/icon_wink.gif' alt=';)' class='wp-smiley' /> </p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=5696</wfw:commentRss>
		<slash:comments>3</slash:comments>
		</item>
		<item>
		<title>#vExpert16</title>
		<link>http://www.hypervisor.fr/?p=5688</link>
		<comments>http://www.hypervisor.fr/?p=5688#comments</comments>
		<pubDate>Tue, 22 Mar 2016 00:00:19 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[News]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=5688</guid>
		<description><![CDATA[C&#8217;est avec un peu de retard que je rédige ce billet, comme le veut la coutume, pour tous vous remercier de votre soutien et votre fidélité qui m&#8217;on permis d&#8217;obtenir pour la 7eme année consécutive le fameux titre de vExpert.

]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">C&#8217;est avec un peu de retard que je rédige ce billet, comme le veut la coutume, pour tous vous remercier de votre soutien et votre fidélité qui m&#8217;on permis d&#8217;obtenir pour la <strong>7eme année consécutive</strong> le fameux titre de vExpert.</p>
<p><img class="aligncenter" src="http://files.hypervisor.fr/img/VMW-LOGO-vEXPERT-2016-k-300x43.png" alt="" width="300" height="43" /></p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=5688</wfw:commentRss>
		<slash:comments>4</slash:comments>
		</item>
		<item>
		<title>Scratch Reset</title>
		<link>http://www.hypervisor.fr/?p=5669</link>
		<comments>http://www.hypervisor.fr/?p=5669#comments</comments>
		<pubDate>Mon, 21 Mar 2016 23:50:25 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[News]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=5669</guid>
		<description><![CDATA[On ne compte plus le nombre de références détaillant comment configurer un chemin pour rentre la fameuse &#8220;scratch&#8221; d&#8217;ESXi persistante, la meilleure étant la kb VMware Creating a persistent scratch location. Paradoxalement, aucune référence n&#8217;indique comment remettre le paramétrage par défaut, à savoir *blank* traduit en &#8220;/tmp/scratch&#8221; par ESXi :


Du coup, on a bêtement essayé [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">On ne compte plus le nombre de références détaillant comment configurer un chemin pour rentre la fameuse &#8220;scratch&#8221; d&#8217;ESXi persistante, la meilleure étant la kb VMware <a href="https://kb.vmware.com/kb/1033696">Creating a persistent scratch location</a>. Paradoxalement, aucune référence n&#8217;indique comment remettre le paramétrage par défaut, à savoir *<strong>blank</strong>* traduit en &#8220;/tmp/scratch&#8221; par ESXi :</p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/scratch_reset/scratch_default_gui.png"><img class="aligncenter" src="http://files.hypervisor.fr/img/scratch_reset/scratch_default_gui.png" alt="" width="440" height="368" /></a></p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/scratch_reset/scratch_default_cli.png" target="_blank"></a><a href="http://files.hypervisor.fr/img/scratch_reset/scratch_default_cli.png" target="_blank"><img class="aligncenter" src="http://files.hypervisor.fr/img/scratch_reset/scratch_default_cli.png" alt="" width="475" height="197" /></a></p>
<p style="text-align: left;">Du coup, on a bêtement essayé mais évidement ça aurait été trop beau :</p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/scratch_reset/scratch_reset_ko.png" target="_blank"><img class="aligncenter" src="http://files.hypervisor.fr/img/scratch_reset/scratch_reset_ko.png" alt="" width="470" height="178" /></a></p>
<p>C&#8217;est dans <a href="https://kb.vmware.com/kb/2003678">une autre kb VMware</a> que nous trouvons la solution :</p>
<blockquote><p>Deleting the /etc/vmware/locker.conf file is not a supported method of removing the link to the scratch location. <strong>To remove the scratch location reference, empty the file rather than deleting it</strong>.</p></blockquote>
<p style="text-align: justify;">En vidant le fichier /etc/vmware/locker.conf c&#8217;est effectivement beaucoup plus efficace et on fini par un petit &#8220;<a href="http://files.hypervisor.fr/img/scratch_reset/flush_firmware_configuration.png" target="_blank">flush firmware configuration</a>&#8221; pour forcer un backup de la conf :</p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/scratch_reset/scratch_reset_ok.png" target="_blank"><img class="aligncenter" src="http://files.hypervisor.fr/img/scratch_reset/scratch_reset_ok.png" alt="" width="470" height="286" /></a></p>
<pre class="brush: bash; title: ; notranslate">
#vim-cmd hostsvc/advopt/view ScratchConfig.ConfiguredScratchLocation
#cat /etc/vmware/locker.conf
#cat /dev/null &gt; /etc/vmware/locker.conf
#cat /etc/vmware/locker.conf
#vim-cmd hostsvc/advopt/update ScratchConfig.ConfiguredScratchLocation string &quot;&quot;
#vim-cmd hostsvc/advopt/view ScratchConfig.ConfiguredScratchLocation
#vim-cmd hostsvc/firmware/sync_config
</pre>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=5669</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
	</channel>
</rss>
