<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Hypervisor.fr &#187; Bullshit</title>
	<atom:link href="http://www.hypervisor.fr/?feed=rss2&#038;tag=bullshit" rel="self" type="application/rss+xml" />
	<link>http://www.hypervisor.fr</link>
	<description>French Bare-Metal weblog</description>
	<lastBuildDate>Wed, 26 Jun 2024 22:42:28 +0000</lastBuildDate>
	<generator>http://wordpress.org/?v=2.9.2</generator>
	<language>en</language>
	<sy:updatePeriod>hourly</sy:updatePeriod>
	<sy:updateFrequency>1</sy:updateFrequency>
			<item>
		<title>VMXNET3 = 10GbE ?</title>
		<link>http://www.hypervisor.fr/?p=5822</link>
		<comments>http://www.hypervisor.fr/?p=5822#comments</comments>
		<pubDate>Tue, 11 Jul 2017 13:50:53 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Kb]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[Bullshit]]></category>
		<category><![CDATA[VMTools]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=5822</guid>
		<description><![CDATA[Nous nous décidons à écrire ce billet après avoir entendu par la millième fois &#8220;Le réseau est lent dans ma VM, on peut pas mettre une carte vmxnet3 pour avoir du 10 giga?&#8221;. Je sais c&#8217;est dur à lire mais c&#8217;est la triste vérité.
Donc pour donner une url plutôt que de retaper une fois de [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">Nous nous décidons à écrire ce billet après avoir entendu par la millième fois <strong><em>&#8220;Le réseau est lent dans ma VM, on peut pas mettre une carte vmxnet3 pour avoir du 10 giga?&#8221;</em></strong>. Je sais c&#8217;est dur à lire mais c&#8217;est la triste vérité.</p>
<p style="text-align: justify;">Donc pour donner une url plutôt que de retaper une fois de plus l’explication, voici l&#8217;extrait du <a href="https://www.vmware.com/content/dam/digitalmarketing/vmware/en/pdf/techpaper/virtual_networking_concepts.pdf" target="_blank">VMware Virtual Networking Concepts</a> qui fait foi :</p>
<blockquote>
<p style="text-align: justify;"><strong>The speed and duplex settings found in physical networking are not relevant in the virtual network</strong>, because all the data transfer takes place in the host system’s RAM, nearly instantaneously and without the possibility of collisions or other signaling-related errors.</p>
</blockquote>
<p>Et si vous en aviez encore besoin, en voici la preuve :</p>
<div id="attachment_5828" class="wp-caption aligncenter" style="width: 501px"><a href="http://www.hypervisor.fr/wp-content/uploads/2017/07/e1000_3GbE.png" title="e1000_3GbE" rel="lightbox[5822]"><img class="size-large wp-image-5828   " title="e1000_3GbE" src="http://www.hypervisor.fr/wp-content/uploads/2017/07/e1000_3GbE-1024x338.png" alt="" width="491" height="162" /></a><p class="wp-caption-text">iperf win64 entre 2 cartes e1000 &quot;bridée&quot; à 100Mo</p></div>
<p style="text-align: center;">
<div id="attachment_5829" class="wp-caption aligncenter" style="width: 511px"><a href="http://www.hypervisor.fr/wp-content/uploads/2017/07/vmxnet3_30G.png" title="vmxnet3_30G" rel="lightbox[5822]"><img class="size-full wp-image-5829" title="vmxnet3_30G" src="http://www.hypervisor.fr/wp-content/uploads/2017/07/vmxnet3_30G.png" alt="" width="501" height="535" /></a><p class="wp-caption-text">iperf entre 2 cartes vmxnet3</p></div>
<p style="text-align: center;">
<p style="text-align: center;">
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=5822</wfw:commentRss>
		<slash:comments>1</slash:comments>
		</item>
		<item>
		<title>Oh My Cloud! &#8211; MAJ</title>
		<link>http://www.hypervisor.fr/?p=5594</link>
		<comments>http://www.hypervisor.fr/?p=5594#comments</comments>
		<pubDate>Sun, 17 Apr 2016 23:26:32 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Citrix XenServer]]></category>
		<category><![CDATA[Hardware]]></category>
		<category><![CDATA[News]]></category>
		<category><![CDATA[Bullshit]]></category>
		<category><![CDATA[cloud]]></category>
		<category><![CDATA[DPI]]></category>
		<category><![CDATA[EPT]]></category>
		<category><![CDATA[hack]]></category>
		<category><![CDATA[isolation]]></category>
		<category><![CDATA[MITM]]></category>
		<category><![CDATA[NSA]]></category>
		<category><![CDATA[security]]></category>
		<category><![CDATA[Snowden]]></category>
		<category><![CDATA[vmm]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=5594</guid>
		<description><![CDATA[MAJ 28/05/2016 : Sur XenServer 7, cette feature a un joli nom, HyperVisor Memory Introspection (HVMI)
Nous profitons du recent article de The Information qui décrit la volonté d&#8217;Apple de construire ses propres serveurs en raison d&#8217;une crise de paranoïa, pour partager avec vous une video découverte récemment traitant de Virtual Machine Introspection, une fonctionnalité de l&#8217;API Memory Inspection [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;"><em><span style="color: #ff0000;">MAJ 28/05/2016</span> : <a href="https://www.citrix.com/blogs/2016/05/24/xenserver-7-whats-new/" target="_blank">Sur XenServer 7</a>, cette feature a un joli nom, <strong>HyperVisor Memory Introspection</strong> (<a href="http://files.hypervisor.fr/img/hvmi.jpg" target="_blank">HVMI</a>)</em></p>
<p style="text-align: justify;">Nous profitons du recent article de <a href="http://arstechnica.com/information-technology/2016/03/report-apple-designing-its-own-servers-to-avoid-snooping/">The Information</a> qui décrit la volonté d&#8217;Apple de construire ses propres serveurs en raison d&#8217;une crise de paranoïa, pour partager avec vous une video découverte récemment traitant de <a href="http://wiki.xenproject.org/wiki/Virtual_Machine_Introspection"><strong>Virtual Machine Introspection</strong></a>, une fonctionnalité de l&#8217;API Memory Inspection de l&#8217;Hyperviseur Xen (utilisé par Amazon pour AWS par exemple&#8230;).</p>
<p style="text-align: justify;">Cette vidéo est présentée par Tamas K Lengyel, chercheur en sécurité et développeur actif sur les projets Xen Project Hypervisor, <a href="http://libvmi.com/">LibVMI</a> et <a href="http://drakvuf.com/">DRAKVUF</a> (Dynamic Malware Analysis system). La description faites sur la home du site de ce dernier est particulièrement flipante :</p>
<blockquote>
<p style="text-align: justify;">DRAKVUF is an <strong>agentless dynamic malware analysis system</strong> built on Xen, LibVMI, Volatility and Rekall. It allows for in-depth execution tracing of malware samples and extracting deleted files from memory, <strong>all without having to install any special software within the virtual machine</strong> used for analysis.</p>
</blockquote>
<p style="text-align: justify;">Un peu avant la 3eme minute de la présentation, vous aller voir Tamas <strong>lancer la calculatrice de Windows 7 dans une VM, depuis l&#8217;hyperviseur, en &#8220;hijackant&#8221; la mémoire du GuestOS</strong> à l&#8217;aide de l&#8217;API VMI de Xen. Si si.</p>
<p style="text-align: center;"><object width="500" height="300"><param name="movie" value="http://www.youtube.com/v/k0BVFyyuvRA&#038;hl=en_US&#038;fs=1&#038;"></param><param name="allowFullScreen" value="true"></param><param name="allowscriptaccess" value="always"></param><embed src="http://www.youtube.com/v/k0BVFyyuvRA&#038;hl=en_US&#038;fs=1&#038;" type="application/x-shockwave-flash" allowscriptaccess="always" allowfullscreen="true" width="500" height="300"></embed></object></p>
<p>Ce projet est loin d&#8217;être recent puisqu&#8217;il date de 2011 et a bien été amélioré depuis :</p>
<blockquote>
<p style="text-align: justify;">In Xen 4.6 a number of significant improvements to Xen’s Virtual Machine Introspection (VMI) subsystems make it the best hypervisor for security applications. Hardware support for VM Functions (VMFunc) available on Intel’s 4th generation Haswell CPUs and Atom Silvermont CPUs decreases overheads. Support for Virtualization Exceptions is now available on Intel’s 5th generation Broadwell CPUs and Atom Goldmont CPUs has significantly reduced latency. VMI support for ARM CPUs has also been added.</p>
</blockquote>
<p>On vous laisse méditer sur les fonctions clefs du projets pendant que votre DSI se félicite d&#8217;avoir migré tout son système d&#8217;information sur Azure&#8230;</p>
<ul>
<li><strong>Agentless start of malware execution</strong>.</li>
<li>Agentless monitoring of Windows internal kernel functions.</li>
<li>Guest multi-vCPU support.</li>
<li>Tracing heap allocations.</li>
<li>Tracing files being accessed.</li>
<li>Extracting files from memory before they are deleted.</li>
<li><strong>Cloning of analysis VMs via copy-on-write memory and disk</strong>.</li>
</ul>
<p><img class="aligncenter" src="http://files.hypervisor.fr/img/hackers-cast-at-phonebooths.jpg" alt="" width="500" height="308" /></p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=5594</wfw:commentRss>
		<slash:comments>1</slash:comments>
		</item>
		<item>
		<title>Hyper-VIX</title>
		<link>http://www.hypervisor.fr/?p=5610</link>
		<comments>http://www.hypervisor.fr/?p=5610#comments</comments>
		<pubDate>Fri, 06 Nov 2015 08:48:45 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Hyper-V]]></category>
		<category><![CDATA[News]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[Bullshit]]></category>
		<category><![CDATA[powershell]]></category>
		<category><![CDATA[VIX]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=5610</guid>
		<description><![CDATA[Ya pas à dire, quand il s&#8217;agit de marketer une fonctionnalité vielle de 7 ans comme si c&#8217;était une nouveauté, on peut vraiment compter sur Microsoft.
En effet, à la lecture du titre de cette news &#8220;Using PowerShell Direct and other new features in Hyper-V on Windows 10&#8221; on s&#8217;attend clairement à un truc révolutionnaire. Vous [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">Ya pas à dire, quand il s&#8217;agit de <strong>marketer une fonctionnalité vielle de 7 ans</strong> comme si c&#8217;était une nouveauté, on peut vraiment compter sur Microsoft.</p>
<p style="text-align: justify;">En effet, à la lecture du titre de cette news &#8220;<a href="https://4sysops.com/archives/using-powershell-direct-and-other-new-features-in-hyper-v-on-windows-10/#powershell-direct" target="_blank">Using PowerShell Direct and other new features in Hyper-V on Windows 10</a>&#8221; on s&#8217;attend clairement à un truc révolutionnaire. Vous ne pouvez pas dire le contraire, <strong>&#8220;Powershell Direct&#8221; ça claque !</strong></p>
<p style="text-align: justify;">Alors, naïfs, on se précipite sur <a href="http://blogs.technet.com/b/virtualization/archive/2015/05/14/powershell-direct-running-powershell-inside-a-virtual-machine-from-the-hyper-v-host.aspx" target="_blank">TechNet</a> pour en savoir plus ! Mais là, comme pour le coup du <a href="http://www.hypervisor.fr/?p=3869" target="_blank">Smart Paging</a>, c&#8217;est le drame :</p>
<blockquote><p>It is a <strong>new way</strong> of running PowerShell commands inside a virtual machine from the host operating system easily and reliably<br />
[...]<br />
Note: This only works from Windows 10/Windows Server Technical Preview Hosts to Windows 10/Windows Server Technical Preview guests.</p></blockquote>
<p style="text-align: justify;">Bon là on ne va pas y aller par 4 chemins, on est sur du réchauffé++ car je rappel pour ceux qui n&#8217;étaient pas encore nés que <strong><a href="https://www.vmware.com/support/developer/windowstoolkit/wintk40/windowstoolkit40-200905-releasenotes.html" target="_blank">cette feature existe chez VMware depuis 2009</a></strong> :</p>
<blockquote><p>Invoke-VMScript: Runs the specified PowerShell script in the guest OS of each of the specified virtual machines.</p></blockquote>
<p>Et depuis 2011, elle supporte le SSO :</p>
<blockquote>
<p style="text-align: justify;"><strong>All VIX cmdlets support using SSPI for Windows guest machines if the underlying vCenter Server is 5.0 version</strong>. This might not be valid for users who are local, and not domain users. VIX cmdlets are <strong>Invoke-VMScript</strong>, Copy-VMGuestFile, *-VMGuestNetworkInterface, *-VMGUestRoute, and Set-HardDisk when used for guest disk resizing.</p>
</blockquote>
<p style="text-align: justify;">Et pour ceux qui l&#8217;ignorait, <a href="https://www.vmware.com/support/developer/PowerCLI/PowerCLI41U1/html/Invoke-VMScript.html" target="_blank">ce n&#8217;est évidement pas limité à Windows</a> comme c&#8217;est le cas d&#8217;Hyper-V :</p>
<blockquote>
<p style="text-align: justify;">ScriptType: Specify the type of the script. The valid values are PowerShell, Bat, and Bash. If the virtual machine OS is Windows, the default value is PowerShell. If the virtual machine OS is Linux, the default value is Bash.</p>
<p style="text-align: justify;">
</blockquote>
<p><a href="https://blogs.vmware.com/vix/2008/07/what-is-vix-and.html"><img class="aligncenter" title="What is VIX and why does it matter?" src="http://files.hypervisor.fr/img/vicks.jpg" alt="" width="500" height="332" /></a></p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=5610</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>The Phucking Salt</title>
		<link>http://www.hypervisor.fr/?p=5298</link>
		<comments>http://www.hypervisor.fr/?p=5298#comments</comments>
		<pubDate>Fri, 13 Feb 2015 07:54:16 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Hardware]]></category>
		<category><![CDATA[Kb]]></category>
		<category><![CDATA[Performance]]></category>
		<category><![CDATA[Test]]></category>
		<category><![CDATA[Tips & Tricks]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[Bullshit]]></category>
		<category><![CDATA[overcommit]]></category>
		<category><![CDATA[salt]]></category>
		<category><![CDATA[TPS]]></category>
		<category><![CDATA[Transparent Page Sharing]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=5298</guid>
		<description><![CDATA[MAJ 18/05/2016 : Finalement les Large Pages c&#8217;est vraiment pas top&#8230;

These issues are due to bug in large page promotion path on destination host during vMotion.

MAJ 22/10/2015 : Et encore des mecs qui confondent cloud et homelab&#8230;
All experiments run on a dual CPU blade server with two AMD Opteron 6272 CPUs (16 cores each) and [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;"><em><span style="color: #ff0000;">MAJ 18/05/2016</span> : <a href="https://kb.vmware.com/kb/2144984" target="_blank">Finalement les Large Pages c&#8217;est vraiment pas top</a>&#8230;</em></p>
<blockquote>
<p style="text-align: justify;"><em>These issues are due to bug in large page promotion path on destination host during vMotion.</em></p>
</blockquote>
<p style="text-align: justify;"><em><span style="color: #ff0000;">MAJ 22/10/2015</span> : Et encore des mecs qui <a href="https://www.usenix.org/system/files/conference/woot15/woot15-paper-barresi.pdf" target="_blank">confondent cloud et homelab</a>&#8230;</em></p>
<blockquote><p>All experiments run on a dual CPU blade server with two AMD Opteron 6272 CPUs (16 cores each) and 32 GB of RAM.</p></blockquote>
<p style="text-align: justify;"><em><span style="color: #ff0000;">MAJ 26/02/2015</span> : <a href="http://kb.vmware.com/kb/2101903" target="_blank">Le patch pour la 5.0 vient de sortir</a>, la boucle est bouclée.</em></p>
<p style="text-align: justify;">Vous ne vous en êtes peut être pas rendu compte lors de votre dernière campagne de patching mais <a href="http://blogs.vmware.com/security/2014/10/transparent-page-sharing-additional-management-capabilities-new-default-settings.html" target="_blank"><strong>depuis mi-Octobre 2014, tout nouveau patch d&#8217;ESXi ajoute une fonctionnalité de salage pour TPS</strong></a>. <strong>Désactivée lors de son introduction mais bien destinée à être activée de force lors d&#8217;un patch ultérieur</strong>. Jusqu’à fin Janvier, seule la version 5.1 était concernée mais depuis le 27/01 la version 5.5 bénéficie aussi de cette nouvelle &#8220;feature&#8221;. <span style="text-decoration: line-through;">La 5.0 est encore épargnée à ce jour</span>.</p>
<blockquote>
<p style="text-align: justify;">As we noted earlier on Oct 16, Nov 24 and Dec 4, VMware has introduced new TPS (Transparent Page Sharing) management options. Today’s release of ESXi 5.5 U2d restricts TPS to individual VMs and disables inter-VM TPS by default unless an administrator chooses to re-enable it. Please see <a href="http://kb.vmware.com/kb/2097593" target="_blank">KB 2097593</a> for full details on the functionality.</p>
</blockquote>
<p style="text-align: justify;"><strong>Depuis l&#8217;annonce, beaucoup de bullshit</strong>. De nombreux blogeurs ont donné leur avis sur la question en omettant volontairement (aka je-suis-pas-un-expert-en-sécu) d&#8217;analyser les recherches qui ont abouti a cette rustine. Nous ne sommes pas expert en matière de sécurité non plus, par contre on ne va pas se gêner pour décortiquer les résultats de ces recherches et les critiquer. On commence par <a href="http://kb.vmware.com/kb/2080735" target="_blank">la kb 2080735 de VMware</a> :</p>
<blockquote>
<p style="text-align: justify;">Published academic papers have demonstrated that by forcing a flush and reload of cache memory, it is possible to measure memory timings to try and determine an AES encryption key in use on another virtual machine running on the same physical processor of the host server if Transparent Page Sharing is enabled between the two virtual machines. <strong>This technique works only in a highly controlled system configured in a non-standard way that VMware believes would not be recreated in a production environment</strong>.</p>
</blockquote>
<blockquote>
<p style="text-align: justify;">Even though VMware believes information being disclosed <strong>in real world conditions is unrealistic</strong>, out of an abundance of caution upcoming ESXi Update releases will no longer enable TPS between Virtual Machines by default</p>
</blockquote>
<p>C&#8217;est pourtant clair mais VMware à quand même choisi de jouer la carte de la sécurité.</p>
<p style="text-align: justify;"><img class="aligncenter" src="http://files.hypervisor.fr/img/salt/BeginNoSaltArea.jpg" alt="" width="306" height="203" /></p>
<p style="text-align: justify;">Une petit coup de Google nous a rapidement permis d&#8217;identifier les rapports de recherche à l&#8217;origine du mélodrame : <a href="https://eprint.iacr.org/2014/248.pdf" target="_blank">Fine grain Cross-VM Attacks on Xen and VMware are possible!</a> et <a href="https://eprint.iacr.org/2014/435.pdf" target="_blank">Wait a minute! A fast, Cross-VM attack on AES</a> dont les travaux semble basés sur un autre rapport datant de 2013 : <a href="https://eprint.iacr.org/2013/448.pdf" target="_blank">FLUSH+RELOAD: a High Resolution, Low Noise, L3 Cache Side-Channel Attack</a></p>
<p>Extraits choisis du document de 2013 :</p>
<blockquote>
<p style="text-align: justify;">The technique uses the processor’s clflush instruction to evict the monitored memory locations from the cache, and then tests whether the data in these locations is back in the cache after allowing the victim program to execute a small number of instructions.</p>
</blockquote>
<blockquote>
<p style="text-align: justify;">While copy-on-write protects shared pages from modifications, it is not fully transparent. <strong>The delay introduced when modifying a shared page can be detected</strong> by processes, leading to a potential information leak attack.</p>
</blockquote>
<blockquote>
<p style="text-align: justify;">An important feature of the LLC in modern Intel processors is that it is an inclusive cache (NDLR : <a href="http://en.wikipedia.org/wiki/CPU_cache#Exclusive_versus_inclusive" target="_blank">Et donc pas AMD</a>). That is, the LLC contains copies of all of the data stored in the lower cache levels. Consequently, flushing or evicting data from the LLC also remove said data from all other cache levels of the processor. Our attack exploits this cache behaviour.</p>
</blockquote>
<blockquote>
<p style="text-align: justify;"><strong>Retrieving data from memory or from cache levels closer to memory takes longer than retrieving it from cache levels closer to the core. This difference in timing has been exploited for side-channel attacks</strong>.</p>
</blockquote>
<blockquote>
<p style="text-align: justify;">A round of attack consists of three phases. During the first phase, the monitored memory line is flushed from the cache hierarchy.</p>
<p style="text-align: justify;">The spy, then, waits to allow the victim time to access the memory line before the third phase.</p>
<p style="text-align: justify;">In the third phase, the spy reloads the memory line, measuring the time to load it. If during the wait phase the victim accesses the memory line, the line will be available in the cache and the reload operation will take a short time.</p>
</blockquote>
<p style="text-align: justify;">Maintenant qu&#8217;on en sait un peut plus sur la nature de l&#8217;attaque, voyons un peu les contraintes d&#8217;applications dans la vraie vie :</p>
<blockquote>
<p style="text-align: justify;">For a virtualised environment, <strong>the attacker needs access to a guest co-located on the same host as the victim guest</strong>. <a href="https://cseweb.ucsd.edu/~hovav/dist/cloudsec.pdf" target="_blank">Techniques for achieving co-location are described by Ristenpart et al</a>.<br />
[...]<br />
Identifying the OS and software version in co-resident guests has been dealt with <a href="https://staff.aist.go.jp/c.artho/papers/EuroSec2011-suzaki.pdf" target="_blank">in past research</a>.</p>
</blockquote>
<p>D&#8217;un coup de baguette magique, on se retrouve sur le même ESX avec le même GuestOS. Facile. On continue :</p>
<blockquote>
<p style="text-align: justify;">For the attack to work, <strong>the spy and the victim must execute on the same physical processor</strong>. For our testing, we set the processor affinity on the multi-processor system. However, in a real attack scenario the attack depends on the system scheduler.</p>
</blockquote>
<p style="text-align: justify;">Vous avez bien lu, la VM de l&#8217;attaquant doit résider sur le même processeur que la VM de la victime. Cache L3 oblige. Et c&#8217;est pas fini :</p>
<blockquote>
<p style="text-align: justify;"><strong>When performing the tests, the spy and the victim were the only load on the system</strong>. Such a scenario is not representative of a real system where multiple processes are running. We expect such load to create noise that will affect the quality of capture. Furthermore, for a load that includes multiple parallel instances of GnuPG, the spy will be unable to distinguish between memory access of each instance and will be unable to recover any data.</p>
</blockquote>
<p style="text-align: justify;">Donc, pour que l&#8217;attaque soit réalisable,<strong> il faut que la VM de l&#8217;attaquant se retrouve, avec la VM de la victime, seules sur le même socket du même ESX et avec le même GuestOS !</strong> Et c&#8217;est toujours pas fini.</p>
<p>Extraits choisis du document sur l&#8217;attaque AES :</p>
<blockquote>
<p style="text-align: justify;">We know that VMware implements TPS with large pages (2 MB) or small pages (4 KB). <strong>We decided to use the later one, since it seems to be the default for most systems</strong>. Furthermore, as stated in [<a href="http://www.vmware.com/files/pdf/mem_mgmt_perf_vsphere5.pdf" target="_blank">28</a>], even if the large page sharing is selected, the VMM will still look for identical small pages to share.</p>
</blockquote>
<p style="text-align: justify;">Sachant que <a href="http://www.hypervisor.fr/?p=4401" target="_blank"><strong>TPS ne supporte pas les large pages</strong></a> qui sont la configuration par défaut d&#8217;ESX depuis des années, non seulement <strong>ESX ne serait que partiellement vulnérable uniquement en cas d&#8217;overcommit important</strong> mais de plus le contexte initiale de l’étude est complètement faux.</p>
<blockquote>
<p style="text-align: justify;">Disabling the deduplication would make the attack impossible in the cloud however memory deduplication is highly performance beneficial, especially in cloud where multiple users share the same hardware. This is why we believe that the system designers should restrict the deduplication mechanism rather then completely disabling it.</p>
</blockquote>
<p>Quel dilemme&#8230;</p>
<blockquote><p>We not only performed the attack in native machine, but also in a <strong>cloud-like cross-VM scenario</strong>.</p></blockquote>
<p>&#8220;cloud-like&#8221; et pourtant :</p>
<blockquote><p>All experiments were performed on a machine featuring an Intel i5-3320M four core clocked at 3.2GHz.</p></blockquote>
<p><strong>Ironie du sort, <a href="https://eprint.iacr.org/2014/970.pdf" target="_blank">un récent rapport de recherche décrit un nouveau type d&#8217;attaque sur le cache L3 en exploitant&#8230;les large pages</a> !</strong></p>
<blockquote>
<p style="text-align: justify;"><strong>S$A: A new deduplication free L3 cache side channel technique</strong>: We proposed a new side channel technique that is applied in the L3 cache and therefore can be applied in cross-core scenarios. The new side channel technique bases its methodology in the usage of huge size pages, which give extra information about the position that each memory location occupies in the L3 cache.</p>
</blockquote>
<p>Prochaine étape : désactivation des large pages par défaut ou V2P en masse.</p>
<blockquote>
<p style="text-align: justify;">The relevance of these studies is highlighted by the prompt security update by VMware, making memory deduplication an opt-in feature that was formerly enabled by default.<br />
[...]<br />
We have disclosed our attack to the security teams of VMware, Amazon AWS and Citrix.</p>
</blockquote>
<p style="text-align: justify;">Mais revenons en au salting et à ses effets en cas d&#8217;overcommit. Sur un Dell R730 avec 256Go de RAM, nous nous sommes amusé à démarrer <strong>512 VM</strong> SUSE 11 x64 1vcpu 2Go de vRAM avec des combinaisons de settings Mem.ShareForceSalting et Mem.AllocGuestLargePage différentes. Pour éviter que ça coince pendant le swapout, nous avons <strong>redirigé les vswp sur des SSD NVMe</strong>. On commence en mode défaut (<strong>Mem.ShareForceSalting=2</strong> et <strong>Mem.AllocGuestLargePage=1</strong>) :</p>
<p style="text-align: justify;"><a href="http://files.hypervisor.fr/img/salt/vim_ShareForceSalting_2_AllocGuestLargePage_1.png"><img class="aligncenter" src="http://files.hypervisor.fr/img/salt/vim_ShareForceSalting_2_AllocGuestLargePage_1s.png" alt="" width="480" height="254" /></a></p>
<p style="text-align: justify;"><a href="http://files.hypervisor.fr/img/salt/esxtop_ShareForceSalting_2_AllocGuestLargePage_1.png"><img class="aligncenter" src="http://files.hypervisor.fr/img/salt/esxtop_ShareForceSalting_2_AllocGuestLargePage_1s.png" alt="" width="440" height="94" /></a></p>
<p style="text-align: justify;">La courbe d&#8217;overhead (orange) permet de se rendre compte de la progression du démarrage des 512 VM. On remarque qu&#8217;au 3/4 du bootstorm le premier mécanisme de reclaim est la swap, viennent ensuite la compression, le ballooning et seulement après le sharing (principalement des zéros). Avec 23Go de swap et 43Go de zip, n’espérez pas des temps de réponses de folie même avec du SSD. On continue sans le salting (<strong>Mem.ShareForceSalting=0</strong> et <strong>Mem.AllocGuestLargePage=1</strong>) :</p>
<p style="text-align: justify;"><a href="http://files.hypervisor.fr/img/salt/vim_ShareForceSalting_0_AllocGuestLargePage_1.png"><img class="aligncenter" src="http://files.hypervisor.fr/img/salt/vim_ShareForceSalting_0_AllocGuestLargePage_1s.png" alt="" width="480" height="254" /></a></p>
<p style="text-align: justify;"><a href="http://files.hypervisor.fr/img/salt/esxtop_ShareForceSalting_0_AllocGuestLargePage_1.png"><img class="aligncenter" src="http://files.hypervisor.fr/img/salt/esxtop_ShareForceSalting_0_AllocGuestLargePage_1s.png" alt="" width="452" height="92" /></a></p>
<p>Avec plus de 100Go de sharing et seulement 3,6Go de swap les effets de l&#8217;overcommit (3:1 quand même) sont presque imperceptibles dans ce scénario même si on regrette de constater que le swapping est encore le 1er mécanisme à se déclencher. Maintenant passons en full small pages (<strong>Mem.ShareForceSalting=0</strong> et <strong>Mem.AllocGuestLargePage=0</strong>) :</p>
<p style="text-align: justify;"><a href="http://files.hypervisor.fr/img/salt/vim_ShareForceSalting_0_AllocGuestLargePage_0.png"><img class="aligncenter" src="http://files.hypervisor.fr/img/salt/vim_ShareForceSalting_0_AllocGuestLargePage_0s.png" alt="" width="480" height="254" /></a></p>
<p style="text-align: justify;"><a href="http://files.hypervisor.fr/img/salt/esxtop_ShareForceSalting_0_AllocGuestLargePage_0.png"><img class="aligncenter" src="http://files.hypervisor.fr/img/salt/esxtop_ShareForceSalting_0_AllocGuestLargePage_0s.png" alt="" width="445" height="92" /></a></p>
<p style="text-align: justify;">Là on est au top, 200Go de sharing et un démarrage tout en douceur sans swap, compression ni balloon. Et pour finir, notre <a href="http://www.hypervisor.fr/?p=5265" target="_blank">fameuse technique du Large Page on Demand</a> (<strong>Mem.ShareForceSalting=0</strong> <strong>Mem.AllocGuestLargePage=1</strong> et <strong>LPage.LPageAlwaysTryForNPT=0</strong>) :</p>
<p style="text-align: justify;"><a href="http://files.hypervisor.fr/img/salt/vim_ShareForceSalting_0_AllocGuestLargePage_1_LPageAlwaysTryForNPT_0.png"><img class="aligncenter" src="http://files.hypervisor.fr/img/salt/vim_ShareForceSalting_0_AllocGuestLargePage_1_LPageAlwaysTryForNPT_0s.png" alt="" width="480" height="254" /></a></p>
<p style="text-align: justify;"><a href="http://files.hypervisor.fr/img/salt/esxtop_ShareForceSalting_0_AllocGuestLargePage_1_LPageAlwaysTryForNPT_0.png"><img class="aligncenter" src="http://files.hypervisor.fr/img/salt/esxtop_ShareForceSalting_0_AllocGuestLargePage_1_LPageAlwaysTryForNPT_0s.png" alt="" width="469" height="92" /></a></p>
<p style="text-align: justify;">Même chose mais avec &#8220;seulement&#8221; 143Go de sharing, la différence étant vraisemblablement attribuée à des large pages.</p>
<p style="text-align: justify;">Moralité, <strong>optez pour un régime sans sel !</strong></p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=5298</wfw:commentRss>
		<slash:comments>13</slash:comments>
		</item>
		<item>
		<title>thin&#124;thick on thin&#124;thick chick chicky boom &#8211; MAJ</title>
		<link>http://www.hypervisor.fr/?p=5318</link>
		<comments>http://www.hypervisor.fr/?p=5318#comments</comments>
		<pubDate>Mon, 15 Dec 2014 09:33:44 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Hardware]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[ZFS]]></category>
		<category><![CDATA[Bullshit]]></category>
		<category><![CDATA[LUN]]></category>
		<category><![CDATA[overcommit]]></category>
		<category><![CDATA[thin provisioning]]></category>
		<category><![CDATA[VAAI]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=5318</guid>
		<description><![CDATA[MAJ 11/05/2017 : Et voila ce que ça donne en production :


Nous profitons de la sortie de FreeNAS 9.3, qui introduit le support des primitives VAAI TPST et TPSTUN, pour dissiper, une bonne fois pour toute on l&#8217;espère, le brouillard de bullshit récurant autour du thin on thin (en mode block).


Pour rappel, TPST(W) et TPSTUN, [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;"><em><span style="color: #ff0000;">MAJ 11/05/2017</span> : Et voila ce que ça donne en production :</em></p>
<p style="text-align: center;"><em><a href="http://files.hypervisor.fr/img/Thin_on_Thin/TPST_IRL.png" title="TPST_IRL" rel="lightbox[5318]"><img class="aligncenter size-medium wp-image-5813" title="TPST_IRL" src="http://www.hypervisor.fr/wp-content/uploads/2014/12/TPST_IRL-300x191.png" alt="" width="300" height="191" /></a><br />
</em></p>
<p>Nous profitons de la sortie de FreeNAS 9.3, <a href="http://download.freenas.org/9.3/RELEASE/ReleaseNotes" target="_blank">qui introduit le support des primitives VAAI TPST et TPSTUN</a>, pour dissiper, une bonne fois pour toute on l&#8217;espère, le brouillard de bullshit récurant autour du thin on thin (en mode block).</p>
<p style="text-align: center;"><a href="http://en.wikipedia.org/wiki/MV_Blue_Marlin" target="_blank"><img class="aligncenter" src="http://files.hypervisor.fr/img/Thin_on_Thin/blue_marlin_overcommit.jpg" alt="" width="486" height="243" /></a></p>
<p style="text-align: center;">
<p style="text-align: justify;">Pour rappel, TPST(W) et TPSTUN, respectivement Thin Provisioning Space Threshold (Warning) et Thin Provisioning Stun, <a href="http://www.vmware.com/files/pdf/techpaper/VMware-vSphere-Storage-API-Array-Integration.pdf#page=6" target="_blank">ont été introduites avec vSphere 5.0</a> très probablement <strong>pour répondre aux énormes risques que représente le thin on thin</strong> aka stocker un vmdk thin sur un LUN thin (TPSTUN existait en 4.1 sous le nom <em>Out of Space Condition</em> mais uniquement via plugin constructeur).</p>
<p style="text-align: justify;">En effet, l&#8217;espace disponible d&#8217;un datastore VMFS est calculé de l&#8217;espace consommé par rapport à la taille du filesystem (SCSI oblige) contrairement à un datastore NFS qui interroge la baie/serveur pour le savoir. Ainsi, ESX n&#8217;a aucun moyen de savoir s&#8217;il reste assez ou plus (+) d&#8217;espace qu&#8217;il ne le croit. TPST (<a href="http://www.t10.org/lists/asc-num.htm#ASC_38" target="_blank">0&#215;6 0&#215;38 0&#215;7</a>) et TPSTUN (<a href="http://www.t10.org/lists/asc-num.htm#ASC_27" target="_blank">0&#215;7 0&#215;27 0&#215;7</a>) permettent à la baie/target de palier précisément à ce problème en envoyant aux clients/initiator des commandes SCSI lors du passage d&#8217;un certain seuil et/ou lorsqu&#8217;il n&#8217;y a plus d&#8217;espace du tout.</p>
<p style="text-align: justify;">Soyons clair : <strong>thin|thick on thin sans TPSTUN + saturation de la baie = corruption de VM</strong>. Vous pouvez facilement le vérifier en faisant un test et sachez que nous l&#8217;avons vécu en production avec nos confrères <a href="http://www.vmdude.fr/" target="_blank">vmdude</a> et dagnu. On était content d&#8217;avoir du (<span style="color: #339966;"><strong>veeam</strong></span>) backup&#8230;</p>
<p>Avant de rentrer dans le détail, voici un aperçu de notre vision des avantages et inconvénients des différentes combinaisons thin|thick on thin|thick :</p>
<p><img class="aligncenter" src="http://files.hypervisor.fr/img/Thin_on_Thin/radar.png" alt="" width="417" height="357" /></p>
<ul>
<li style="text-align: justify;"><strong>thick on thick</strong> : le top du top dans tous les domaines sauf celui le la rentabilité. Presqu&#8217;aucune intervention humaine n&#8217;est nécessaire excepté si les VM subissent des snapshot. Financièrement, c&#8217;est évidement la pire des solutions.</li>
<li style="text-align: justify;"><strong>thin on thick</strong> : le meilleur compromis. Seul l&#8217;espace touché est consommé (coté VMware) et en cas de datastore full seules les vm qui veulent grossir sont freezées.</li>
<li style="text-align: justify;"><strong>thin on thin</strong> : le rêve des admins SAN, le cauchemar des admins VMware. Cette solution nécessite un monitoring au top du sol au plafond et des tests de validation avant mise en production. Sans les primitives TPST et TPSTUN, cette solution est très proche de la roulette russe.</li>
<li style="text-align: justify;"><strong>thick on thin</strong> : les inconvénients du thin on thin sans les avantages. Vous pensez réserver l&#8217;espace en faisant du eagerzeroedthick mais en réalité la baie récupère les zéros et compresse le reste. Heureusement TPSTUN agit aussi sur les vmdk thick.</li>
</ul>
<p style="text-align: justify;">Concentrons nous sur le thin on thin puisque c&#8217;est la solution (assumée) qui tend à s&#8217;imposer officiellement (oui, avant vous &#8220;pensiez&#8221; faire du thin on thick). Tant que tout va bien, vous n&#8217;avez à craindre que <a href="http://www.hypervisor.fr/?p=5188" target="_blank">l&#8217;impact du thin des vmdk</a>. Mais quand l&#8217;espace vient à manquer dans la baie, on espère pour vous que ça se passe comme ça :</p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/Thin_on_Thin/ELK_TPSTx.png" target="_blank"><img class="aligncenter" src="http://files.hypervisor.fr/img/Thin_on_Thin/ELK_TPSTx_small.png" alt="" width="457" height="217" /></a></p>
<p style="text-align: justify;">Lorsque vous aurez atteint le seuil (parfois) configurable du TPST, disons 75%, vous aurez droit à du &#8220;0&#215;6 0&#215;38 0&#215;7&#8243; dans vos logs à une fréquence qui dépend de son implémentation dans le logiciel qui contrôle la baie. Ces messages génèrent des événements <strong>esx.problem.scsi.device.thinprov.atquota</strong> et <strong>vob.scsi.device.thinprov.atquota</strong> que vous retrouverez dans le vCenter (alarme possible) sous la forme suivante :</p>
<blockquote>
<p style="text-align: left;">Space utilization on thin-provisioned device naa.xyz exceeded configured threshold. Affected datastores (if any): &#8220;xyz&#8221;.</p>
</blockquote>
<p style="text-align: justify;">Si vous ne faites rien, vous finirez par atteindre le fond du panier et vous mangerez les fameux &#8220;0&#215;7 0&#215;27 0&#215;7&#8243;. A ce moment là, ESXi freezera n&#8217;importe qu&#8217;elle VM demandant plus (+) d&#8217;espace et vous aurez droit à ce genre de message :</p>
<blockquote>
<p style="text-align: left;">There is no more space for virtual disk xyz.vmdk. You might be able to continue this session by freeing disk space on the relevant volume, and clicking Retry. Click Cancel to terminate this session.</p>
</blockquote>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/Thin_on_Thin/TPSTx_vCenter.png" target="_blank"><img class="aligncenter" src="http://files.hypervisor.fr/img/Thin_on_Thin/TPSTx_vCenter_small.png" alt="" width="460" height="461" /></a></p>
<p style="text-align: justify;"><strong>A cet instant précis, la seule et unique bonne chose à faire est de libérer de l&#8217;espace sur la baie</strong>. Nous avons à peu prés tout essayé de l&#8217;UNMAP jusqu&#8217;au <a href="http://kb.vmware.com/kb/1010931" target="_blank">VMFS3.OpenWithoutJournal</a> sans obtenir de résultat stable. Si vous atteignez le &#8220;<strong>No space left on device</strong>&#8220;, la LUN est démontée et toutes vos VM passent en &#8220;inaccessible&#8221;. Et vous êtes dans la mer*e.</p>
<p style="text-align: justify;">Notre conseil : testez, essayez de remplir/vider/re-remplir un LUN avant de partir en production (on à déjà vu des cas où TPST remontait mal voir pas du tout), monitorez bien les différents messages et commandes SCSI. Mais surtout, ne partez pas du principe que la baie ne sera jamais full&#8230;</p>
<p style="text-align: justify;">Et pour ceux qui croiraient encore aux vertus du thick on thin, on vous laisse apprécier les joies d&#8217;un datastore full alors que le LUN ne l&#8217;est pas :</p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/Thin_on_Thin/TPSTUN_thick_on_thin_vsp.png" target="_blank"><img class="aligncenter" src="http://files.hypervisor.fr/img/Thin_on_Thin/TPSTUN_thick_on_thin_vsp_small.png" alt="" width="437" height="306" /></a></p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/Thin_on_Thin/TPSTUN_thick_on_thin_SAN.png" target="_blank"><img class="aligncenter" src="http://files.hypervisor.fr/img/Thin_on_Thin/TPSTUN_thick_on_thin_SAN_small.png" alt="" width="431" height="131" /></a></p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=5318</wfw:commentRss>
		<slash:comments>3</slash:comments>
		</item>
		<item>
		<title>Hyper-Vulnérable</title>
		<link>http://www.hypervisor.fr/?p=5062</link>
		<comments>http://www.hypervisor.fr/?p=5062#comments</comments>
		<pubDate>Fri, 28 Mar 2014 13:19:45 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Hyper-V]]></category>
		<category><![CDATA[Bullshit]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=5062</guid>
		<description><![CDATA[Lorsque nous critiquons Hyper-V c&#8217;est évidement dans l&#8217;optique de voir mûrir le produit. Malgré tout, on ne peut pas s’empêcher de penser qu&#8217;il reste encore un peu de chemin&#8230;

]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">Lorsque nous critiquons Hyper-V c&#8217;est évidement dans l&#8217;optique de voir mûrir le produit. Malgré tout, on ne peut pas s’empêcher de penser qu&#8217;il reste encore un peu de chemin&#8230;</p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/hyper_v_2012_ie10.png"><img class="aligncenter" src="http://files.hypervisor.fr/img/hyper_v_2012_ie10.png" alt="" width="477" height="326" /></a></p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=5062</wfw:commentRss>
		<slash:comments>2</slash:comments>
		</item>
		<item>
		<title>ESXCLI is the new VUM</title>
		<link>http://www.hypervisor.fr/?p=5012</link>
		<comments>http://www.hypervisor.fr/?p=5012#comments</comments>
		<pubDate>Wed, 29 Jan 2014 10:28:52 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Tips & Tricks]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[Bullshit]]></category>
		<category><![CDATA[esxcli]]></category>
		<category><![CDATA[VUM]]></category>
		<category><![CDATA[webclient]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=5012</guid>
		<description><![CDATA[Lors d&#8217;une tentative d&#8217;upgrade d&#8217;ESXi 5.1 vers 5.5 avec VUM, nous nous sommes heurté à un message d&#8217;erreur des plus vagues :

The upgrade contains conflicting VIBs. Remove the conflicting VIBs or use Image Builder to create a custom upgrade ISO image that contains the newer versions of the conflicting VIBs, and try to upgrade again.

Il [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">Lors d&#8217;une tentative d&#8217;upgrade d&#8217;ESXi 5.1 vers 5.5 avec VUM, nous nous sommes heurté à un message d&#8217;erreur des plus vagues :</p>
<blockquote>
<p style="text-align: justify;">The upgrade contains conflicting VIBs. Remove the conflicting VIBs or use Image Builder to create a custom upgrade ISO image that contains the newer versions of the conflicting VIBs, and try to upgrade again.</p>
</blockquote>
<p style="text-align: justify;">Il nous a fallu fouiller au fin fond des logs d&#8217;ESXi pour identifier les VIB en question :</p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/ESXCLIvsVUM/vib_conflicts_vum.png" target="_blank"><img class="aligncenter" src="http://files.hypervisor.fr/img/ESXCLIvsVUM/vib_conflicts_vum.png" alt="" width="519" height="275" /></a></p>
<p style="text-align: justify;">Si vous lisez attentivement les release notes, vous savez déjà que depuis ESXi 5.1 <a href="https://www.vmware.com/support/vsphere5/doc/vsphere-esx-vcenter-server-51-release-notes.html#upgrading" target="_blank">il est possible d&#8217;upgrader avec la commande esxcli directement depuis le vib depot de VMware</a> (<a href="http://www.virtuallyghetto.com/2012/09/a-pretty-cool-method-of-upgrading-to.html" target="_blank">William Lam a d&#8217;ailleurs écrit un post à ce sujet pour détailler le process</a>) :</p>
<blockquote>
<p style="text-align: justify;">You can upgrade and apply patches to ESXi 5.0.x hosts by using the esxcli command-line utility for ESXi to upgrade to ESXi 5.1 from a download depot on vmware.com or from a downloaded ZIP file of a depot that is prepared by a VMware partner.</p>
</blockquote>
<p style="text-align: justify;">Nous avons donc tenté la même opération en ssh et l&#8217;erreur retournée par ESXCLI est nettement plus précise que celle de VUM :</p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/ESXCLIvsVUM/vib_conflicts_esxcli.png" target="_blank"><img class="aligncenter" src="http://files.hypervisor.fr/img/ESXCLIvsVUM/vib_conflicts_esxcli.png" alt="" width="520" height="275" /></a></p>
<p style="text-align: left;">Au passage, on attend toujours un plugin VUM digne de ce nom pour le webclient&#8230;</p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=5012</wfw:commentRss>
		<slash:comments>3</slash:comments>
		</item>
		<item>
		<title>VM Latency Sensitivity : same feature, shoot again!</title>
		<link>http://www.hypervisor.fr/?p=4278</link>
		<comments>http://www.hypervisor.fr/?p=4278#comments</comments>
		<pubDate>Mon, 16 Sep 2013 06:07:46 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[News]]></category>
		<category><![CDATA[Performance]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[Bullshit]]></category>
		<category><![CDATA[PowerCLI]]></category>
		<category><![CDATA[powershell]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=4278</guid>
		<description><![CDATA[On attend toujours la dispo officielle de vSphere 5.5 annoncée au VMworld US 2013 mais comme d&#8217;habitude on a droit à une avalanche de posts de la part de tous les beta testeurs en manque de créativité avec des morceaux de screenshot dedans. Comme c&#8217;est pas le genre de la maison, on va se contenter [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">On attend toujours la dispo officielle de vSphere 5.5 annoncée au VMworld US 2013 mais comme d&#8217;habitude on a droit à une avalanche de posts de la part de tous les beta testeurs en manque de créativité avec des morceaux de screenshot dedans. Comme c&#8217;est pas le genre de la maison, on va se contenter de spéculer sur une &#8220;nouvelle&#8221; feature <a href="http://www.vmware.com/files/pdf/techpaper/latency-sensitive-perf-vsphere55.pdf" target="_blank">qui a déjà eu droit à son whitepaper</a> : <strong>VM Latency Sensitivity</strong>.</p>
<blockquote>
<p style="text-align: justify;">In order to support virtual machines with strict latency requirements, vSphere 5.5 introduces a new per-VM feature called Latency Sensitivity.</p>
</blockquote>
<p style="text-align: justify;">Cela nous a fait curieusement penser à une autre feature <a href="http://www.vmware.com/files/pdf/techpaper/latency-sensitive-perf-vsphere55.pdf#page=6" target="_blank">disponible dans la version 5.1</a> : <strong><a href="http://pubs.vmware.com/vsphere-51/topic/com.vmware.wssdk.apiref.doc/vim.LatencySensitivity.html" target="_blank">VM Latency Sensitivity</a></strong>.</p>
<blockquote>
<p style="text-align: justify;">vSphere 5.1 simplifies the process of configuring a virtual machine to support low-latency applications. It now offers a latency sensitivity advanced setting that automatically makes low-level changes in the vSphere kernel to reduce latency for the virtual machine.</p>
</blockquote>
<p style="text-align: justify;">Ah tiens c&#8217;est bizarre, elles ont le même nom&#8230;</p>
<p style="text-align: justify;">Vous constaterez qu&#8217;il n&#8217;en est nullement fait référence dans le whitepaper de la 5.5 donc impossible de savoir si c&#8217;est &#8220;vraiment&#8221; une nouvelle fonctionnalité, la même fonctionnalité améliorée ou un gros pipeau.</p>
<p style="text-align: justify;">En attendant d&#8217;en savoir plus, on vous a préparé un petit oneliner pour activer la fonctionnalité et même fixer le nombre de µs secondes que vous souhaiter (2000 dans notre exemple) :</p>
<pre class="brush: powershell; title: ; notranslate">Get-VM &quot;Flash_Gordon&quot;|Get-View|?{-not $_.Config.Template}|%{$_.ReconfigVM((New-Object VMware.Vim.VirtualMachineConfigSpec -Property @{latencySensitivity=(New-Object VMware.Vim.LatencySensitivity -Property @{level=&quot;custom&quot;;sensitivity=&quot;2000&quot;})}))}</pre>
<p>Et pour savoir ce qui a été configurer :</p>
<pre class="brush: powershell; title: ; notranslate">(Get-VM &quot;Flash_Gordon&quot;|Get-View).Config.LatencySensitivity</pre>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=4278</wfw:commentRss>
		<slash:comments>2</slash:comments>
		</item>
		<item>
		<title>(I Can&#8217;t Get No) Overcommit</title>
		<link>http://www.hypervisor.fr/?p=4602</link>
		<comments>http://www.hypervisor.fr/?p=4602#comments</comments>
		<pubDate>Fri, 18 Jan 2013 15:58:21 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Hyper-V]]></category>
		<category><![CDATA[Performance]]></category>
		<category><![CDATA[Bullshit]]></category>
		<category><![CDATA[memory overcommit]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=4602</guid>
		<description><![CDATA[Bien dynamique la mémoire sur Hyper-V 3&#8230;

]]></description>
			<content:encoded><![CDATA[<p>Bien dynamique la mémoire sur Hyper-V 3&#8230;</p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/hyper-v_no_overcommit.png" target="_blank"><img class="aligncenter" src="http://files.hypervisor.fr/img/hyper-v_no_overcommit.png" alt="" width="503" height="378" /></a></p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=4602</wfw:commentRss>
		<slash:comments>20</slash:comments>
		</item>
		<item>
		<title>VDDK m&#8217;as tué</title>
		<link>http://www.hypervisor.fr/?p=4460</link>
		<comments>http://www.hypervisor.fr/?p=4460#comments</comments>
		<pubDate>Mon, 26 Nov 2012 23:58:31 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[News]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[veeam]]></category>
		<category><![CDATA[Bullshit]]></category>
		<category><![CDATA[vadp]]></category>
		<category><![CDATA[vddk]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=4460</guid>
		<description><![CDATA[Symantec s&#8217;est mangé une bonne déculottée public par Veeam après avoir FUDé via twitter au sujet d&#8217;un potentiel bug dans l&#8217;API de backup de vSphere 5.1 :
Any vendor claiming support for #vStorage 5.1 API, CANNOT perform consistent backups
Réponse bien précise de veeam :

Our development team wasn’t able to fix these issues but they did realize [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">Symantec s&#8217;est mangé <a href="http://www.veeam.com/blog/symantec-admits-all-its-vmware-backup-customers-are-in-danger.html" target="_blank">une bonne déculottée public par Veeam</a> après avoir <a href="https://twitter.com/backupexec/status/271255847508783105" target="_blank">FUDé via twitter</a> au sujet <a href="http://kb.vmware.com/kb/2039931" target="_blank">d&#8217;un potentiel bug dans l&#8217;API de backup de vSphere 5.1</a> :</p>
<blockquote><p>Any vendor claiming support for #vStorage 5.1 API, CANNOT perform consistent backups</p></blockquote>
<p>Réponse bien précise de veeam :</p>
<blockquote>
<p style="text-align: justify;">Our development team wasn’t able to fix these issues but they did realize that separating <strong>the VDDK calls into a separate process monitored by a watchdog process will help to dramatically increase overall reliability</strong>. In case this process hangs, we simply kill the process without affecting the job. With an alternative architecture not featuring such isolation, VDDK code hang will cause they whole backup and restore “job” to hang just as the VMware KB article explains.</p>
<p>Additionally, Veeam sets extra timeouts on some critical VDDK calls to avoid possible deadlocks.</p></blockquote>
<p>Conclusion :</p>
<blockquote>
<p style="text-align: justify;">In short, <strong>Veeam customers are immune to VDDK issues</strong> while Symantec customers need to go back and verify the recoverability all of their VMware VM backups, as per Symantec’s own tweet.</p>
</blockquote>
<p style="text-align: justify;">Ça fait mal.</p>
<p style="text-align: justify;"><img class="aligncenter" src="http://go.veeam.com/rs/veeam/images/logo_virt_lovers_free_products.png" alt="" width="235" height="41" /></p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=4460</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>And the swap is smart again</title>
		<link>http://www.hypervisor.fr/?p=3869</link>
		<comments>http://www.hypervisor.fr/?p=3869#comments</comments>
		<pubDate>Tue, 01 May 2012 23:50:32 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Hyper-V]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[Bullshit]]></category>
		<category><![CDATA[memory overcommit]]></category>
		<category><![CDATA[swapping]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=3869</guid>
		<description><![CDATA[Alors que nous effectuions des tests sur la beta de Windows 8 server server 2012, nous avons remarqué une option qui avait échappé à notre vigilance lors de la publication par Microsoft du &#8220;What&#8217;s new in hyper-V&#8221; (très troublant si on considère que le produit est toujours en beta mais c&#8217;est une technique bien rodée chez M$) : le Smart [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">Alors que nous effectuions des tests sur la beta de Windows <span style="text-decoration: line-through;">8 server</span> server 2012, nous avons remarqué une option qui avait échappé à notre vigilance lors de la publication par Microsoft du &#8220;<a href="http://technet.microsoft.com/en-us/library/hh831410.aspx#BKMK_DM" target="_blank">What&#8217;s new in hyper-V</a>&#8221; (très troublant si on considère que le produit est toujours en beta <a href="http://www.vcritical.com/2012/04/microsoft-management-summit-2012-a-k-a-mms-2011-for-real-this-time/" target="_blank">mais c&#8217;est une technique bien rodée chez M$</a>) : le <strong>Smart Paging</strong></p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/Hyper-V3_Smart_Paging.png" target="_blank"><img class="aligncenter" src="http://files.hypervisor.fr/img/Hyper-V3_Smart_Paging.png" alt="" width="442" height="416" /></a></p>
<p style="text-align: justify;">En toute honnêteté, pendant 2 secondes nous avons pensé à une killer feature qui permettrait de placer automatiquement la swap du GuestOS sur un vdisk à part ou quelque chose d&#8217;encore plus ingénieux. On y croyait vraiment à mort tant la feature list d&#8217;Hyper-V 3 est impressionnante (pour un produit &#8220;gratuit&#8221;).</p>
<p style="text-align: justify;">Mais non, c&#8217;est juste le fichier de swap de la vm qui va avec une autre nouvelle fonction &#8220;minimum memory&#8221;. Je vous laisse apprécier le descriptif :</p>
<blockquote><p>Dynamic Memory improvements include support for configuring minimum memory, and Smart Paging, which is a memory management technique to provide a <strong>reliable restart experience</strong> for virtual machines configured with less minimum memory than startup memory.<br />
[...]<br />
Smart Paging uses <strong>disk resources</strong> as additional, temporary memory when more memory is required to restart a virtual machine than the amount of memory currently allocated to a virtual machine.</p></blockquote>
<p>Ça c&#8217;est du dépoussiérage de feature où on s&#8217;y connait pas ! Mais c&#8217;est pas fini, on vous a gardé le meilleur pour la fin :</p>
<blockquote><p>To minimize the potential performance impact of Smart Paging, HyperV uses it only when all of the following occurs:</p>
<p>1. <strong>The virtual machine is being restarted.</strong><br />
2. There is no available physical memory.<br />
3. No memory can be reclaimed from other virtual machines running on the host.</p></blockquote>
<p>Et on vous rafraîchi la mémoire sur ce <a href="http://www.google.com/url?sa=t&amp;rct=j&amp;q=&amp;esrc=s&amp;source=web&amp;cd=10&amp;ved=0CGYQFjAJ&amp;url=http%3A%2F%2Fdownload.microsoft.com%2Fdownload%2F2%2F8%2FC%2F28CE6B15-BB29-402B-8645-0706C0A518BF%2FVirt_WP_CostComparison_final.pdf&amp;ei=tnSgT8L9L6PP4QT1yJjpAg&amp;usg=AFQjCNFyZeYfnBzt229jizdEIgx6RLrjFw&amp;sig2=hX1kaIVgbztBKtxVOA466g" target="_blank">qu&#8217;M$ pensait de l&#8217;overcommit quand Hyper-V n&#8217;en était pas capable</a> :</p>
<blockquote><p>What this means is while Memory Overcommit has its uses in certain configurations, it’s not a panacea for virtualization administrators. Memory Overcommit should be used judiciously and only when absolutely necessary.</p></blockquote>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=3869</wfw:commentRss>
		<slash:comments>2</slash:comments>
		</item>
		<item>
		<title>Hyper-V R2 CSV : The Shadow Warrior</title>
		<link>http://www.hypervisor.fr/?p=3301</link>
		<comments>http://www.hypervisor.fr/?p=3301#comments</comments>
		<pubDate>Wed, 31 Aug 2011 18:45:05 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Hyper-V]]></category>
		<category><![CDATA[Kb]]></category>
		<category><![CDATA[Bullshit]]></category>
		<category><![CDATA[FAIL]]></category>
		<category><![CDATA[whitepapers]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=3301</guid>
		<description><![CDATA[Pour être tout à fait honnête, depuis notre découverte d&#8217;Hyper-V R2, nous étions resté sur l&#8217;idée que le backup des VM sur CSV nécessitait un Hardware VSS prodiver et donc une baie de stockage &#8220;Hyper-V R2 compliant&#8221;. Mais en réalité, c&#8217;est encore pire&#8230;

L&#8217;excellent whitepaper d&#8217;Aidan Finn nous permet de comprendre à quel point la partie backup d&#8217;Hyper-v R2 est loin d’être idéale. Si [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">Pour être tout à fait honnête, depuis <a href="http://www.hypervisor.fr/?p=1202" target="_blank">notre découverte d&#8217;Hyper-V R2</a>, nous étions resté sur l&#8217;idée que le backup des VM sur CSV nécessitait un <a href="http://blogs.technet.com/b/dpm/archive/2010/07/08/tested-hardware-vss-provider-table.aspx" target="_blank">Hardware VSS prodiver</a> et donc une baie de stockage &#8220;Hyper-V R2 compliant&#8221;. Mais en réalité, c&#8217;est encore pire&#8230;</p>
<p style="text-align: center;"><img class="aligncenter" src="http://www.magicalement.fr/arteco/images/comedyfunnel.jpg-2.jpg" alt="" width="120" height="154" /></p>
<p style="text-align: justify;"><a href="http://www.aidanfinn.com/?p=11491" target="_blank">L&#8217;excellent whitepaper d&#8217;Aidan Finn</a> nous permet de comprendre à quel point la partie backup d&#8217;Hyper-v R2 est loin d’être idéale. Si vous n&#8217;avez pas d&#8217;Hardware VSS provider, vous &#8220;pourriez&#8221; utilisez le Software VSS provider d&#8217;Hyper-V R2 si vous avez envie de voir les performances de votre infrastructure s&#8217;effondrer :</p>
<blockquote>
<p style="text-align: justify;">Redirected Mode is active from the time that the backup job starts until the backup job completes</p>
</blockquote>
<p style="text-align: justify;">C&#8217;est à dire que <strong>pendant TOUTE la durée du backup, TOUT le trafic disque de TOUTES les VM est redirigé en SMB, par le réseau, vers le CSV coordinator !</strong> Et, pire encore :</p>
<blockquote>
<p style="text-align: justify;"><a href="http://technet.microsoft.com/en-us/library/ff634192.aspx" target="_blank">We recommend that virtual machines deployed on CSV should be backed up serially</a></p>
</blockquote>
<p style="text-align: justify;">En admettant que vous ayez un Hardware VSS provider, vous aurez quand même droit à un petit flood réseau :</p>
<blockquote>
<p style="text-align: justify;">Redirected Mode only takes place for the time it takes the SAN to create a snapshot of the LUN containing the CSV volume</p>
</blockquote>
<p style="text-align: justify;">Et nous avons gardé le meilleur pour la fin :</p>
<blockquote>
<p style="text-align: justify;">If the virtual machine’s Dynamic VHDs need to expand then the CSV Coordinator will have to start Redirected Mode for the entire CSV so it can perform the expansion of the VHD.</p>
</blockquote>
<p style="text-align: justify;">C&#8217;est à dire que <strong>si vos VM sont en thin provisioning, à chaque fois qu&#8217;un VHD doit grossir, TOUT le trafic disque de TOUTES les VM du CSV passe par le réseau en SMB pendant la durée de l&#8217;opération</strong>. La grande classe.</p>
<p style="text-align: justify;">Et si le thin provisioning ne vous fait vraiment pas peur, à plus ou moins court terme le CSV sera fragmenté, et là c&#8217;est le drame :</p>
<blockquote>
<p style="text-align: justify;">Fragmentation leads to greater latency for read operations. You can defrag the physical storage volumes. <strong>In the case of a CSV, that means that the CSV will be in Redirected Mode for the length of the defrag operation</strong></p>
</blockquote>
<p style="text-align: justify;">Alors, la prochaine fois qu&#8217;on vous parle d&#8217;Hyper-V, souriez <img src='http://www.hypervisor.fr/wp-includes/images/smilies/icon_smile.gif' alt=':)' class='wp-smiley' /> </p>
<p style="text-align: center;"><img class="aligncenter" src="http://s.uvlist.net/l/y2008/06/51341.jpg" alt="" width="256" height="192" /></p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=3301</wfw:commentRss>
		<slash:comments>21</slash:comments>
		</item>
		<item>
		<title>suck my cloud</title>
		<link>http://www.hypervisor.fr/?p=3292</link>
		<comments>http://www.hypervisor.fr/?p=3292#comments</comments>
		<pubDate>Tue, 30 Aug 2011 18:38:51 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Hyper-V]]></category>
		<category><![CDATA[News]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[Bullshit]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=3292</guid>
		<description><![CDATA[On sait maintenant où est passé tout le fric que Microsoft aurait du mètre dans Hyper-V pour ne pas se ridiculiser de 20% dans les benchs ou ne pas avoir un footprint 30x trop gros :

]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;"><a href="http://www.winrumors.com/microsoft-pokes-fun-at-vmware-with-%E2%80%9Cvmlimited-man%E2%80%9D-video/" target="_blank">On sait maintenant où</a> est passé tout le fric que Microsoft aurait du mètre dans Hyper-V <a href="http://www.vcritical.com/2011/08/vmware-vsphere-5-outperforms-hyper-v-by-nearly-20/" target="_blank"><strong>pour ne pas se ridiculiser de 20% dans les benchs</strong></a> ou ne pas avoir <a href="https://twitter.com/#!/hypervisor_fr/status/108447920143085568" target="_blank"><strong>un footprint 30x trop gros</strong></a> :</p>
<p style="text-align: center;"><a href="http://vmlimited.ctp.trafficmgr.com/"><img class="aligncenter size-full wp-image-3293" title="VMlimited" src="http://files.hypervisor.fr/img/VMlimited.png" alt="" width="472" height="174" /></a></p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=3292</wfw:commentRss>
		<slash:comments>6</slash:comments>
		</item>
		<item>
		<title>Le nouvel hyperviseur d&#8217;Oracle est 2 fois plus crémeux !</title>
		<link>http://www.hypervisor.fr/?p=3285</link>
		<comments>http://www.hypervisor.fr/?p=3285#comments</comments>
		<pubDate>Tue, 30 Aug 2011 01:14:11 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[News]]></category>
		<category><![CDATA[Bullshit]]></category>
		<category><![CDATA[XEN]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=3285</guid>
		<description><![CDATA[
Mais la vraie question, c&#8217;est : &#8220;qu&#8217;est ce qu&#8217;on va bien pouvoir faire d&#8217;une VM avec 128 vcpu ?!&#8220;
]]></description>
			<content:encoded><![CDATA[<p><img class="aligncenter" src="http://www.oracle.com/ocom/groups/public/@ocom/documents/digitalasset/455441.jpg" alt="" width="185" height="167" /></p>
<p>Mais la vraie question, c&#8217;est : &#8220;<strong>qu&#8217;est ce qu&#8217;on va bien pouvoir faire d&#8217;une VM avec <a href="http://www.oracle.com/us/technologies/virtualization/ovm3-supported-config-max-459314.pdf" target="_blank">128 vcpu</a> ?!</strong>&#8220;</p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=3285</wfw:commentRss>
		<slash:comments>4</slash:comments>
		</item>
		<item>
		<title>Hypervisor Wars : Core Parking GreenbullshIT</title>
		<link>http://www.hypervisor.fr/?p=3037</link>
		<comments>http://www.hypervisor.fr/?p=3037#comments</comments>
		<pubDate>Sat, 04 Jun 2011 23:46:34 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Hyper-V]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[ballooning]]></category>
		<category><![CDATA[Bullshit]]></category>
		<category><![CDATA[DPM]]></category>
		<category><![CDATA[swapping]]></category>
		<category><![CDATA[TPS]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=3037</guid>
		<description><![CDATA[Il y a quelques semaines, Microsoft a posté sur le TechNet Edge une série de vidéos au titre pour le moins évocateur : Virtualization Jump Start. Le but étant d&#8217;enfumer les ignorants avec une petite mise en scène hautement propagandesque qui rappelle celle des impayables guignols de la virtualization.

L’initiative pourrait rester valable si elle n&#8217;était pas gavée de gros morceaux de bullshit comme ce magnifique [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">Il y a quelques semaines, Microsoft a posté sur le TechNet Edge une série de vidéos au titre pour le moins évocateur : <a href="http://technet.microsoft.com/en-us/edge/ff832960.aspx?category=Jump%20Start" target="_blank">Virtualization Jump Start</a>. Le but étant d&#8217;enfumer les ignorants avec une petite mise en scène hautement propagandesque qui rappelle celle des impayables <a href="http://www.hypervisor.fr/?p=701" target="_blank">guignols de la virtualization</a>.</p>
<p><iframe frameborder="0" width="480" height="270" src="http://www.dailymotion.com/embed/video/xj3wq2?logo=0&#038;hideInfos=1"></iframe><br />
L’initiative pourrait rester valable si elle n&#8217;était pas gavée de gros morceaux de bullshit comme ce magnifique tableau comparatif :</p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/parking/SS-2011-05-06_02.16.05.png" title=" " rel="lightbox[3037]"><img class="size-medium wp-image-3077 aligncenter" title=" " src="http://files.hypervisor.fr/img/parking/SS-2011-05-06_02.16.05.png" alt="" width="300" height="224" /></a></p>
<p style="text-align: center;">
<p style="text-align: justify;">Notre <a href="http://bullshito.net/wp-content/uploads/2010/01/bullshit-o-meter.jpg" target="_blank">bullshit-o-meter</a>, déjà dans le rouge, a totalement grillé sur <a href="http://technet.microsoft.com/en-us/edge/virtualization-jump-start-02-differentiating-microsoft-vmware" target="_blank">la séquence comparative Core Parking vs DPM (extrait ci-dessus)</a>. Notre brave Symon (&#8220;Microsoft Technical Evangelist&#8221; en chemise bleu) semble persuadé qu&#8217;un serveur allumé consomme autant qu&#8217;un serveur éteint (où l&#8217;inverse). <a href="http://www.microsoft.com/windowsserver2008/en/us/r2-management.aspx" target="_blank">Et pourtant</a> :</p>
<blockquote>
<p style="text-align: left;">The Core Parking feature allows Windows Server 2008 R2 to consolidate processing onto the fewest number of possible processor cores, and suspends inactive processor cores</p>
</blockquote>
<p style="text-align: justify;">Même si le CPU représente une part non négligeable de la consommation d&#8217;un serveur, il n&#8217;est question en moyenne que d&#8217;<strong>1/4 à 1/3 de la consommation totale</strong>. Mais <a href="http://4sysops.com/archives/scvmm-2012-review-part-4-bare-metal-configuration-dynamic-power-optimization/" target="_blank">quelque chose nous dit</a> que M$ a fini par s&#8217;en apercevoir, ils n&#8217;ont juste pas encore prévenu Symon. Néanmoins, pour pouvoir consolider au maximum il faut un peu mieux que <a href="http://www.vcritical.com/2011/04/hyper-v-dynamic-memory-not-quite-ready-to-demo/" target="_blank">Dynamic Memory</a>&#8230;</p>
<p style="text-align: justify;">Démonstration avec un cluster, hébergeant 66 VM (W2K3 &#8211; 2Go), composé de 12 serveurs bi Xeon 5345 + 8Go de RAM sous ESXi 4.1 build 348481. Les VM de ce cluster devant etre dispo à 100% entre 8h et 19h, <a href="http://www.vmware.com/files/pdf/Distributed-Power-Management-vSphere.pdf" target="_blank">Distributed Power Management</a> est programmé dans vCenter pour s&#8217;activer à 20h et se désactiver à 7h (hors WE). Résultat, <strong>9 serveurs sur 12 OFF</strong> (pour Symon, ça veut plus d’électricité du tout) en heures creuses, c&#8217;est à dire 60% du temps dans notre cas :</p>
<p style="text-align: left;"><a href="http://files.hypervisor.fr/img/parking/Screenshot-2011-06-03_23.22.19.png" title=" " rel="lightbox[3037]"><img class="aligncenter size-medium wp-image-3065" title=" " src="http://www.hypervisor.fr/wp-content/uploads/2011/06/Screenshot-2011-06-03_23.22.19-300x114.png" alt="" width="300" height="114" /></a><a href="http://files.hypervisor.fr/img/parking/Screenshot-2011-06-03_23.14.17.png" title=" " rel="lightbox[3037]"><img class="aligncenter size-medium wp-image-3066" title=" " src="http://www.hypervisor.fr/wp-content/uploads/2011/06/Screenshot-2011-06-03_23.14.17-300x150.png" alt="" width="300" height="150" /></a>Evidemment, impossible d&#8217;atteindre ce taux de consolidation hallucinant de 600% sans l&#8217;aide de <a href="http://www.vmware.com/files/pdf/techpaper/vsp_41_perf_memory_mgmt.pdf" target="_blank">TPS, Ballooning, Memory compression et Hypervisor swapping</a> :</p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/parking/Screenshot-2011-06-03_23.43.09.png" title=" " rel="lightbox[3037]"><img class="aligncenter size-full wp-image-3095" title=" " src="http://www.hypervisor.fr/wp-content/uploads/2011/06/Screenshot-2011-06-03_23.43.09.png" alt="" width="486" height="266" /></a></p>
<p style="text-align: center;">
<p style="text-align: left;">Ça, c&#8217;est du GreenIT et <a href="http://www.hypervisor.fr/?p=317" target="_blank">c&#8217;est dispo depuis 2008</a> !</p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=3037</wfw:commentRss>
		<slash:comments>6</slash:comments>
		</item>
		<item>
		<title>Hypervisor Wars : (Hyper-V R2) SP1 en vaut 2</title>
		<link>http://www.hypervisor.fr/?p=2768</link>
		<comments>http://www.hypervisor.fr/?p=2768#comments</comments>
		<pubDate>Sun, 27 Mar 2011 14:23:17 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Hyper-V]]></category>
		<category><![CDATA[News]]></category>
		<category><![CDATA[bug]]></category>
		<category><![CDATA[Bullshit]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=2768</guid>
		<description><![CDATA[Après des mois de tapage makerting autour de Dynamic Memory (ballooning farceur) et Remote FX (RDP++), le lancement officiel du SP1 de Windows 2008 R2/Hyper-V R2 s&#8217;est fait sans grosses explosions blogesques puisqu&#8217;on en connaissait déjà les détails (mise à part la critique de l’excellent whitepaper Project VRC Phase III au sujet de l&#8217;ASLR sur le Windows [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">Après des mois de tapage makerting autour de Dynamic Memory (<a href="http://blogs.vmware.com/virtualreality/2011/02/hypervisor-memory-management-done-right.html" target="_blank">ballooning farceur</a>) et Remote FX (<a href="http://www.brianmadden.com/topics/Microsoft+RemoteFX/default.aspx" target="_blank">RDP++</a>), le lancement officiel du SP1 de Windows 2008 R2/Hyper-V R2 s&#8217;est fait sans grosses explosions blogesques puisqu&#8217;on en connaissait déjà les détails (mise à part la critique de <a href="http://www.projectvrc.nl/index.php?option=com_docman&amp;task=doc_details&amp;gid=12&amp;Itemid=11" target="_blank">l’excellent whitepaper Project VRC Phase III</a> au sujet de l&#8217;ASLR <a href="http://blogs.technet.com/b/virtualization/archive/2011/02/09/windows-7-and-windows-server-2008-r2-sp1-add-new-virtualization-innovations.aspx" target="_blank">sur le Windows Virtualization Team Blog</a>).</p>
<p style="text-align: justify;">Mais maintenant que les migrations commencent sur les environnements de production, <strong>un problème lié au stockage</strong> (pas encore clairement identifié) <a href="https://twitter.com/#!/PlanetV12n/status/51387187182321664" target="_blank">à été signalé vendredi sur Twitter.</a> Ca va même <a href="http://social.technet.microsoft.com/Forums/en-US/winserverClustering/thread/e67026af-7f9b-4698-9ca7-11853431ed86/" target="_blank">très loin pour certains</a> :</p>
<blockquote><p>[...] in my case running a validation report even damaged the MBR record on the LUNS making them inaccessible to Cluster Shared Volumes. So I lost a good part of my production Hyper-V servers (Thank you back-up).</p></blockquote>
<p style="text-align: justify;">Testez bien avant de patcher, ou migrez vers ESX <a href="http://labs.vmware.com/flings/xvp" target="_blank">avec vCenter XVP Manager</a> <img src='http://www.hypervisor.fr/wp-includes/images/smilies/icon_wink.gif' alt=';)' class='wp-smiley' /> </p>
<p><a href="http://www.youtube.com/watch?v=XoV_Z9caJDw"><img class="aligncenter" src="http://i.zdnet.com/blogs/apple_ad_pc_trustme2.png" alt="" width="476" height="269" /></a></p>
<p style="text-align: center;">&#8220;This time it&#8217;s gonna be different. Trust me.&#8221;</p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=2768</wfw:commentRss>
		<slash:comments>2</slash:comments>
		</item>
		<item>
		<title>fog computing</title>
		<link>http://www.hypervisor.fr/?p=2599</link>
		<comments>http://www.hypervisor.fr/?p=2599#comments</comments>
		<pubDate>Sat, 08 Jan 2011 11:50:43 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[News]]></category>
		<category><![CDATA[Bullshit]]></category>
		<category><![CDATA[Dilbert]]></category>
		<category><![CDATA[fun]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=2599</guid>
		<description><![CDATA[Impossible de résister à l&#8217;envie de vous faire partager cette planche de Dilbert :


]]></description>
			<content:encoded><![CDATA[<p style="text-align: left;">Impossible de résister à l&#8217;envie de vous faire partager cette planche de <a href="http://www.dilbert.com" target="_blank">Dilbert </a>:</p>
<p style="text-align: center;">
<a href="http://www.hypervisor.fr/wp-content/uploads/2011/01/109703.strip_.gif" title="109703.strip" rel="lightbox[2599]"><img class="aligncenter size-full wp-image-2600" title="109703.strip" src="http://www.hypervisor.fr/wp-content/uploads/2011/01/109703.strip_.gif" alt="" width="512" height="159" /></a></p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=2599</wfw:commentRss>
		<slash:comments>2</slash:comments>
		</item>
		<item>
		<title>XenServer 5.6 : Pool aux oeufs d&#8217;or</title>
		<link>http://www.hypervisor.fr/?p=2133</link>
		<comments>http://www.hypervisor.fr/?p=2133#comments</comments>
		<pubDate>Mon, 07 Jun 2010 19:00:50 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Citrix XenServer]]></category>
		<category><![CDATA[Test]]></category>
		<category><![CDATA[Bullshit]]></category>
		<category><![CDATA[marketing]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=2133</guid>
		<description><![CDATA[Aux détours de nos joyeux tests sur XenServer 5.6, nous avons remarqué un détail qui peut avoir une importance capitale pour ceux qui montent une nouvelle architecture. Pour rappel, le mode de licensing de XenServer à changé avec l&#8217;apparition de la v5.6, ce qui peut s&#8217;expliquer par l&#8217;apparition de nouvelles fonctionnalités.
L&#8217;une d&#8217;entre elles, Heterogeneous Pools, [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">Aux détours de <a href="http://www.hypervisor.fr/?p=2105" target="_blank">nos joyeux tests sur XenServer 5.6</a>, nous avons remarqué un détail qui peut avoir une importance capitale pour ceux qui montent une nouvelle architecture. Pour rappel, le mode de licensing de XenServer à changé avec l&#8217;apparition de la v5.6, ce qui peut s&#8217;expliquer par<a href="http://support.citrix.com/article/CTX124972" target="_blank"> l&#8217;apparition de nouvelles fonctionnalités</a>.</p>
<p style="text-align: justify;">L&#8217;une d&#8217;entre elles, <strong>Heterogeneous Pools</strong>, permet de composer un cluster (Pool chez Citrix) avec des serveurs dont les cpu sont de différentes générations  en s&#8217;appuyant sur <a href="http://communities.intel.com/servlet/JiveServlet/downloadBody/2013-102-1-2806/08-498_FlexMigration_WP_FIN_hires.pdf" target="_blank">Intel Flex Migration</a> et <a href="http://developer.amd.com/assets/43781-3.00-PUB_Live-Virtual-Machine-Migration-on-AMD-processors.pdf" target="_blank">AMD Extended Migration</a> (tout comme VMware EVC depuis Q3 2008&#8230;). On comprend très bien l&#8217;intérêt de pouvoir mixer des Xeon Core 2 avec des Xeon Core i7 mais lorsque qu&#8217;on tente de mixer 2 serveurs <strong>identiques</strong> avec une simple difference de stepping (codification des révisions chez Intel, induisant des corrections de bug et/ou évolution de process de fabrication), on a droit à un joli message d&#8217;erreur :</p>
<p style="text-align: center;"><a href="http://hypervisor.free.fr/Xen/xen56_poolko.jpg" title="xen56_poolko" rel="lightbox[2133]"><img class="size-medium wp-image-2134 aligncenter" title="xen56_poolko" src="http://www.hypervisor.fr/wp-content/uploads/2010/06/xen56_poolko-300x211.jpg" alt="xen56_poolko" width="300" height="211" /></a></p>
<p style="text-align: center;"><a href="http://hypervisor.free.fr/Xen/xen56_poolkocmd.jpg" title="xen56_poolkocmd" rel="lightbox[2133]"><img class="alignnone size-medium wp-image-2135" title="xen56_poolkocmd" src="http://www.hypervisor.fr/wp-content/uploads/2010/06/xen56_poolkocmd-300x59.jpg" alt="xen56_poolkocmd" width="300" height="59" /></a></p>
<p style="text-align: justify;">Là on se dit, Citrix a voulu assurer grave sur les pools hétérogènes pour éviter les problèmes de XenMotion. Oui mais non. Car si sur <strong>ces mêmes serveurs</strong>, vous installez XenServer 5.5, toujours avec des licences gratuites, que vous créez un pool avec et que vous upgradez ce pool en 5.6, ca marche :</p>
<p style="text-align: center;"><a href="http://hypervisor.free.fr/Xen/xen56_step10.jpg" title="xen56_step10" rel="lightbox[2133]"><img class="alignnone size-thumbnail wp-image-2136" title="xen56_step10" src="http://www.hypervisor.fr/wp-content/uploads/2010/06/xen56_step10-150x150.jpg" alt="xen56_step10" width="150" height="150" /></a> <a href="http://hypervisor.free.fr/Xen/xen56_step6.jpg" title="xen56_step6" rel="lightbox[2133]"><img class="alignnone size-thumbnail wp-image-2137" title="xen56_step6" src="http://www.hypervisor.fr/wp-content/uploads/2010/06/xen56_step6-150x150.jpg" alt="xen56_step6" width="150" height="150" /></a> <a href="http://hypervisor.free.fr/Xen/xen56_step10up.jpg" title="xen56_step10up" rel="lightbox[2133]"><img class="alignnone size-thumbnail wp-image-2138" title="xen56_step10up" src="http://www.hypervisor.fr/wp-content/uploads/2010/06/xen56_step10up-150x150.jpg" alt="xen56_step10up" width="150" height="150" /></a> <a href="http://hypervisor.free.fr/Xen/xen56_step6up.jpg" title="xen56_step6up" rel="lightbox[2133]"><img class="alignnone size-thumbnail wp-image-2139" title="xen56_step6up" src="http://www.hypervisor.fr/wp-content/uploads/2010/06/xen56_step6up-150x150.jpg" alt="xen56_step6up" width="150" height="150" /></a> <a href="http://hypervisor.free.fr/Xen/xen56_poolok.jpg" title="xen56_poolok" rel="lightbox[2133]"><img class="alignnone size-thumbnail wp-image-2140" title="xen56_poolok" src="http://www.hypervisor.fr/wp-content/uploads/2010/06/xen56_poolok-150x150.jpg" alt="xen56_poolok" width="150" height="150" /> </a><a href="http://hypervisor.free.fr/Xen/3775154453_3d08c17bb4.jpg" title="3775154453_3d08c17bb4" rel="lightbox[2133]"><img class="alignnone size-thumbnail wp-image-2144" title="3775154453_3d08c17bb4" src="http://www.hypervisor.fr/wp-content/uploads/2010/06/3775154453_3d08c17bb4-150x150.jpg" alt="3775154453_3d08c17bb4" width="150" height="150" /></a></p>
<p style="text-align: left;">Je vous laisse en tirer la conclusion qui adhérera le mieux à votre niveau de paranoïa&#8230;</p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=2133</wfw:commentRss>
		<slash:comments>2</slash:comments>
		</item>
		<item>
		<title>XenServer 5.6 : overcommit payant (entre autres)</title>
		<link>http://www.hypervisor.fr/?p=2105</link>
		<comments>http://www.hypervisor.fr/?p=2105#comments</comments>
		<pubDate>Wed, 02 Jun 2010 23:31:53 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Citrix XenServer]]></category>
		<category><![CDATA[News]]></category>
		<category><![CDATA[Bullshit]]></category>
		<category><![CDATA[marketing]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=2105</guid>
		<description><![CDATA[Quelle ne fut pas notre déception lorsque nous avons voulu testé le Dynamic Memory Control (aka &#8220;pseudo ballooning&#8221;) de XenServer 5.6 tout juste disponible sur le site de Citrix. En effet cette &#8220;nouvelle&#8221; fonctionalité est payante :

Mieux, si vous voulez ajouter la ram à votre snapshot c&#8217;est aussi soumis à licence :

Rajoutez à cela :

Pas [...]]]></description>
			<content:encoded><![CDATA[<p>Quelle ne fut pas notre déception lorsque nous avons voulu testé le Dynamic Memory Control (aka &#8220;pseudo ballooning&#8221;) de XenServer 5.6 tout juste disponible sur le site de Citrix. En effet cette &#8220;nouvelle&#8221; fonctionalité est payante :</p>
<p style="text-align: center;"><img class="aligncenter size-full wp-image-2109" title="xen_5.6_mem" src="http://www.hypervisor.fr/wp-content/uploads/2010/06/xen_5.6_mem.jpg" alt="xen_5.6_mem" width="489" height="210" /></p>
<p>Mieux, si vous voulez ajouter la ram à votre snapshot c&#8217;est aussi soumis à licence :</p>
<p><a href="http://www.hypervisor.fr/wp-content/uploads/2010/06/xen_5.6_snap.jpg" title="xen_5.6_snap" rel="lightbox[2105]"><img class="aligncenter size-medium wp-image-2110" title="xen_5.6_snap" src="http://www.hypervisor.fr/wp-content/uploads/2010/06/xen_5.6_snap-300x130.jpg" alt="xen_5.6_snap" width="300" height="130" /></a></p>
<p>Rajoutez à cela :</p>
<ul>
<li>Pas d&#8217;update automatique des xentools 5.5 &gt;5.6</li>
<li>Pas d&#8217;update via XenCenter de XenServer 5.5 &gt; 5.6</li>
<li>Pas de snapshot quiesced et/ou w/memory sans les xentools 5.6</li>
<li>Pas de thin provisioning natif</li>
<li>Pas de XenMotion sans PV drivers</li>
</ul>
<p>Mais on a quand meme droit au revert snapshot et au linked clone (surprise !) sur la version gratuite :</p>
<p style="text-align: center;"><img class="size-full wp-image-2111 alignnone" title="xen_5.6_lnk" src="http://www.hypervisor.fr/wp-content/uploads/2010/06/xen_5.6_lnk.jpg" alt="xen_5.6_lnk" width="224" height="153" /> <img class="alignnone size-full wp-image-2113" title="xen_5.6_revert" src="http://www.hypervisor.fr/wp-content/uploads/2010/06/xen_5.6_revert.jpg" alt="xen_5.6_revert" width="339" height="269" /></p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=2105</wfw:commentRss>
		<slash:comments>6</slash:comments>
		</item>
		<item>
		<title>TechDays 2010 : dynamicité du datacenter</title>
		<link>http://www.hypervisor.fr/?p=1829</link>
		<comments>http://www.hypervisor.fr/?p=1829#comments</comments>
		<pubDate>Fri, 12 Feb 2010 14:02:12 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Hyper-V]]></category>
		<category><![CDATA[News]]></category>
		<category><![CDATA[Bullshit]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=1829</guid>
		<description><![CDATA[N&#8217;ayant pas eu le plaisir de participer aux TechDays 2010 (17000 visiteurs), la curiosité nous a conduits jusqu&#8217;aux vidéos des Plénières. Le silverlight n&#8217;étant pas encore parfaitement maitrisé par Microsoft, impossible de naviguer dans la vidéo sans avoir tout en buffer&#8230; Nous nous sommes donc permis de mettre sur Dailymotion un extrait d&#8217;une démo de [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">N&#8217;ayant pas eu le plaisir de participer aux TechDays 2010 (17000 visiteurs), la curiosité nous a conduits <a href="http://www.microsoft.com/france/mstechdays/" target="_blank">jusqu&#8217;aux vidéos des Plénières</a>. Le silverlight n&#8217;étant pas encore parfaitement maitrisé par Microsoft, impossible de naviguer dans la vidéo sans avoir tout en buffer&#8230; Nous nous sommes donc permis de mettre sur Dailymotion un extrait d&#8217;une démo de Live Migration grâce à SCVMM R2 :</p>
<p><center><object classid="clsid:d27cdb6e-ae6d-11cf-96b8-444553540000" width="480" height="272" codebase="http://download.macromedia.com/pub/shockwave/cabs/flash/swflash.cab#version=6,0,40,0"><param name="allowFullScreen" value="true" /><param name="allowScriptAccess" value="always" /><param name="src" value="http://www.dailymotion.com/swf/xc7buq" /><param name="allowfullscreen" value="true" /><embed type="application/x-shockwave-flash" width="480" height="272" src="http://www.dailymotion.com/swf/xc7buq" allowscriptaccess="always" allowfullscreen="true"></embed></object></center></p>
<p>La VM à migré sans interruption, tout le monde est en plein extase : bienvenue en <a href="http://www.vmware.com/company/news/releases/virtualcenter.html" target="_blank">novembre 2003</a> !</p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=1829</wfw:commentRss>
		<slash:comments>7</slash:comments>
		</item>
	</channel>
</rss>
