<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Hypervisor.fr &#187; Hyper-V</title>
	<atom:link href="http://www.hypervisor.fr/?cat=14&#038;feed=rss2" rel="self" type="application/rss+xml" />
	<link>http://www.hypervisor.fr</link>
	<description>French Bare-Metal weblog</description>
	<lastBuildDate>Wed, 26 Jun 2024 22:42:28 +0000</lastBuildDate>
	<generator>http://wordpress.org/?v=2.9.2</generator>
	<language>en</language>
	<sy:updatePeriod>hourly</sy:updatePeriod>
	<sy:updateFrequency>1</sy:updateFrequency>
			<item>
		<title>Hyper-VIX</title>
		<link>http://www.hypervisor.fr/?p=5610</link>
		<comments>http://www.hypervisor.fr/?p=5610#comments</comments>
		<pubDate>Fri, 06 Nov 2015 08:48:45 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Hyper-V]]></category>
		<category><![CDATA[News]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[Bullshit]]></category>
		<category><![CDATA[powershell]]></category>
		<category><![CDATA[VIX]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=5610</guid>
		<description><![CDATA[Ya pas à dire, quand il s&#8217;agit de marketer une fonctionnalité vielle de 7 ans comme si c&#8217;était une nouveauté, on peut vraiment compter sur Microsoft.
En effet, à la lecture du titre de cette news &#8220;Using PowerShell Direct and other new features in Hyper-V on Windows 10&#8221; on s&#8217;attend clairement à un truc révolutionnaire. Vous [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">Ya pas à dire, quand il s&#8217;agit de <strong>marketer une fonctionnalité vielle de 7 ans</strong> comme si c&#8217;était une nouveauté, on peut vraiment compter sur Microsoft.</p>
<p style="text-align: justify;">En effet, à la lecture du titre de cette news &#8220;<a href="https://4sysops.com/archives/using-powershell-direct-and-other-new-features-in-hyper-v-on-windows-10/#powershell-direct" target="_blank">Using PowerShell Direct and other new features in Hyper-V on Windows 10</a>&#8221; on s&#8217;attend clairement à un truc révolutionnaire. Vous ne pouvez pas dire le contraire, <strong>&#8220;Powershell Direct&#8221; ça claque !</strong></p>
<p style="text-align: justify;">Alors, naïfs, on se précipite sur <a href="http://blogs.technet.com/b/virtualization/archive/2015/05/14/powershell-direct-running-powershell-inside-a-virtual-machine-from-the-hyper-v-host.aspx" target="_blank">TechNet</a> pour en savoir plus ! Mais là, comme pour le coup du <a href="http://www.hypervisor.fr/?p=3869" target="_blank">Smart Paging</a>, c&#8217;est le drame :</p>
<blockquote><p>It is a <strong>new way</strong> of running PowerShell commands inside a virtual machine from the host operating system easily and reliably<br />
[...]<br />
Note: This only works from Windows 10/Windows Server Technical Preview Hosts to Windows 10/Windows Server Technical Preview guests.</p></blockquote>
<p style="text-align: justify;">Bon là on ne va pas y aller par 4 chemins, on est sur du réchauffé++ car je rappel pour ceux qui n&#8217;étaient pas encore nés que <strong><a href="https://www.vmware.com/support/developer/windowstoolkit/wintk40/windowstoolkit40-200905-releasenotes.html" target="_blank">cette feature existe chez VMware depuis 2009</a></strong> :</p>
<blockquote><p>Invoke-VMScript: Runs the specified PowerShell script in the guest OS of each of the specified virtual machines.</p></blockquote>
<p>Et depuis 2011, elle supporte le SSO :</p>
<blockquote>
<p style="text-align: justify;"><strong>All VIX cmdlets support using SSPI for Windows guest machines if the underlying vCenter Server is 5.0 version</strong>. This might not be valid for users who are local, and not domain users. VIX cmdlets are <strong>Invoke-VMScript</strong>, Copy-VMGuestFile, *-VMGuestNetworkInterface, *-VMGUestRoute, and Set-HardDisk when used for guest disk resizing.</p>
</blockquote>
<p style="text-align: justify;">Et pour ceux qui l&#8217;ignorait, <a href="https://www.vmware.com/support/developer/PowerCLI/PowerCLI41U1/html/Invoke-VMScript.html" target="_blank">ce n&#8217;est évidement pas limité à Windows</a> comme c&#8217;est le cas d&#8217;Hyper-V :</p>
<blockquote>
<p style="text-align: justify;">ScriptType: Specify the type of the script. The valid values are PowerShell, Bat, and Bash. If the virtual machine OS is Windows, the default value is PowerShell. If the virtual machine OS is Linux, the default value is Bash.</p>
<p style="text-align: justify;">
</blockquote>
<p><a href="https://blogs.vmware.com/vix/2008/07/what-is-vix-and.html"><img class="aligncenter" title="What is VIX and why does it matter?" src="http://files.hypervisor.fr/img/vicks.jpg" alt="" width="500" height="332" /></a></p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=5610</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>Failing restore from old Win8 checkpoint</title>
		<link>http://www.hypervisor.fr/?p=5613</link>
		<comments>http://www.hypervisor.fr/?p=5613#comments</comments>
		<pubDate>Fri, 06 Nov 2015 00:19:18 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Hyper-V]]></category>
		<category><![CDATA[Kb]]></category>
		<category><![CDATA[Tips & Tricks]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[Active Directory Domain Services]]></category>
		<category><![CDATA[AD]]></category>
		<category><![CDATA[PowerCLI]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=5613</guid>
		<description><![CDATA[Alors que Windows 2012 R2 est officiellement supporté comme GuestOS depuis ESXi 5.0 U1, un changement de la fameuse feature VM-Generation ID rend impossible le vmotion vers un ESXi de version supérieure comme le détail la kb 2033723:

Due to changes in Microsoft&#8217;s virtual machine generation counter specification that was introduced in the Windows 8 Release [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">Alors que <a href="https://blogs.vmware.com/guestosguide/2012/09/windows-server-2012-2.html" target="_blank">Windows 2012 R2 est officiellement supporté comme GuestOS depuis ESXi 5.0 U1</a>, un changement de la fameuse feature <a href="https://blogs.vmware.com/apps/2013/01/windows-server-2012-vm-generation-id-support-in-vsphere.html">VM-Generation ID</a> rend impossible le vmotion vers un ESXi de version supérieure comme le détail la <a href="http://kb.vmware.com/kb/2033723" target="_blank">kb 2033723</a>:</p>
<blockquote>
<p style="text-align: justify;">Due to changes in Microsoft&#8217;s virtual machine generation counter specification that was introduced in the Windows 8 Release Preview and Windows Server 2012 RC, corresponding changes were also required in the virtual machine BIOS. Snapshots, checkpoints and VMotion actions of virtual machines with these versions of Windows are not compatible between ESXi hosts that have implemented different revisions of Microsoft&#8217;s virtual machine generation counter specification.</p>
<p style="text-align: justify;">Snapshots and checkpoints of virtual machines with Windows 8 or Windows Server 2012 that are taken on a host running ESXi 5.0 Update 1 or ESXi 5.0 P03 will not resume on a host running later versions of ESXi ( ESXi 5.0 Update 2, ESXi 5.1, etc.) and the reverse.</p>
<p style="text-align: justify;"><strong>VMotion is prevented between hosts running ESXi 5.0 Update 1 or ESXi 5.0 P03 to and from hosts running later versions of ESXi</strong>.</p>
</blockquote>
<p style="text-align: center;"><img class="aligncenter" src="http://files.hypervisor.fr/img/vmGenCounter_50_vmotion.png" alt="" width="500" height="336" /></p>
<blockquote><p>2015-11-05T15:01:32.804Z| vmx| I120: DUMPER: Group &#8216;VMGenCtr&#8217; not found.<br />
2015-11-05T15:01:32.804Z| vmx| I120: CPT: could not find group VMGenCtr<br />
2015-11-05T15:01:32.804Z| vmx| I120: DUMPER: Item &#8216;AddrReg&#8217; [-1, -1] not found.<br />
2015-11-05T15:01:32.804Z| vmx| I120: DUMPER: Item &#8216;CtrCount&#8217; [-1, -1] not found.<br />
2015-11-05T15:01:32.804Z| vmx| I120: DUMPER: Item &#8216;CtrCountX&#8217; [-1, -1] not found.<br />
2015-11-05T15:01:32.804Z| vmx| I120: <strong>VMGenCtrCheckpoint: Failing restore from old Win8 checkpoint</strong><br />
[...]<br />
2015-11-05T15:01:32.804Z| vmx| I120: [msg.checkpoint.migration.failedReceive] Failed to receive migration.<br />
2015-11-05T15:01:32.804Z| vmx| I120: [msg.checkpoint.mrestoregroup.failed] An error occurred restoring the virtual machine state during migration.</p></blockquote>
<p style="text-align: justify;">Evidemment la solution proposée par VMware passe par un shutdown de la VM mais lors d&#8217;une grosse migration ça fait pas sérieux donc nous avons cherché un vrai workaround.</p>
<p style="text-align: justify;">Sachant que <strong>cette feature est exclusivement utilisé par <a href="https://www.vmware.com/files/pdf/solutions/Virtualizing-Active-Directory-Domain-Services-on-VMware-vSphere.pdf" target="_blank">Active Directory Domain Services</a></strong> (pourquoi l&#8217;imposer à toutes les VM d&#8217;ailleurs ?!), nous avons chercher à la désactiver pour que le resume du vmotion sur l&#8217;ESXi de destination ne pose plus de problème. Et pas plus loin que dans <a href="http://kb.vmware.com/kb/2021887" target="_blank">une autre kb vmware</a>, nous avons trouvé la solution:</p>
<blockquote><p>The workaround involving adding the <strong>vmGenCounter.enable</strong> parameter to the virtual machine .vmx file may cause the new snapshot protection for domain controllers introduced in Windows 8/Windows Server 2012 to stop functioning.</p></blockquote>
<p>Un petit coup de PowerCLI pour appliquer le setting à chaud :</p>
<pre class="brush: powershell; title: ; notranslate">Get-VM Windows2012R2|Get-View|%{$_.ReconfigVM((New-Object VMware.Vim.VirtualMachineConfigSpec -Property @{extraconfig=@((New-Object VMware.Vim.optionvalue -Property @{Key=&quot;vmGenCounter.enable&quot;;Value=&quot;FALSE&quot;}))}))}</pre>
<p>Et le vmotion passe en douceur <img src='http://www.hypervisor.fr/wp-includes/images/smilies/icon_smile.gif' alt=':)' class='wp-smiley' /> </p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=5613</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>Large Pages on Demand</title>
		<link>http://www.hypervisor.fr/?p=5265</link>
		<comments>http://www.hypervisor.fr/?p=5265#comments</comments>
		<pubDate>Wed, 03 Sep 2014 12:08:59 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Hyper-V]]></category>
		<category><![CDATA[Performance]]></category>
		<category><![CDATA[Test]]></category>
		<category><![CDATA[Tips & Tricks]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[large pages]]></category>
		<category><![CDATA[MMU]]></category>
		<category><![CDATA[NUMA]]></category>
		<category><![CDATA[RAM]]></category>
		<category><![CDATA[TPS]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=5265</guid>
		<description><![CDATA[Comme nous vous l&#8217;avions promis, voici un retour d’expérience sur l&#8217;implémentation du paramètre LPageAlwaysTryForNPT à &#8220;0&#8243; qui force ESX à n&#8217;allouer une Large Page que lorsque le GuestOS d&#8217;une VM le lui demande explicitement et qui permet de bénéficier de TPS sans attendre que l&#8217;ESX n&#8217;ait à les &#8220;casser&#8221; en cas de contention.
In the cases [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;"><a href="http://www.hypervisor.fr/?p=4401" target="_blank">Comme nous vous l&#8217;avions promis</a>, voici un retour d’expérience sur l&#8217;implémentation du paramètre <a href="http://pubs.vmware.com/vsphere-55/topic/com.vmware.vsphere.resmgmt.doc/GUID-D98E6EC9-3730-4BC0-A9FC-93B9079E1AEE.html" target="_blank">LPageAlwaysTryForNPT</a> à &#8220;0&#8243; qui force ESX à n&#8217;allouer une Large Page que lorsque le GuestOS d&#8217;une VM le lui demande explicitement et qui permet de bénéficier de TPS <a href="http://kb.vmware.com/kb/1021095" target="_blank">sans attendre que l&#8217;ESX n&#8217;ait à les &#8220;casser&#8221; en cas de contention</a>.</p>
<blockquote><p>In the cases where host memory is overcommitted, ESX may have to swap out pages. Since ESX will not swap out large pages, during host swapping, a large page will be broken into small pages.</p></blockquote>
<p style="text-align: justify;">Afin d&#8217;avoir une meilleure visibilité sur ce qui change au moment où nous avons activé le paramètre et lancé une vague de vmotion au sein du cluster pour l&#8217;appliquer, nous avons utilisé les mêmes compteurs que <a href="http://www.hypervisor.fr/?p=4841" target="_blank">le &#8220;dashboard&#8221; Guest Memory</a> (aka <a href="http://pubs.vmware.com/vsphere-55/index.jsp?topic=%2Fcom.vmware.wssdk.apiref.doc%2Fvim.ResourcePool.Summary.QuickStats.html" target="_blank">ResourcePoolQuickStats</a>) pour en faire un rrd sous cacti (avec les même couleurs) :</p>
<p><img class="aligncenter" src="http://files.hypervisor.fr/img/LPoD/LPoD_utilization.png" alt="" width="418" height="321" /></p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/LPoD/LPoD_quickstats.png"><img class="aligncenter" src="http://files.hypervisor.fr/img/LPoD/LPoD_quickstats.png" alt="" width="476" height="246" /></a></p>
<p style="text-align: justify;"><strong>Un gain immédiat de 20% de RAM sans consommation CPU supplémentaire</strong> ni augmentation manifeste de latence (dans notre cas) :</p>
<p><img class="aligncenter" src="http://files.hypervisor.fr/img/LPoD/LPoD_cpu.png" alt="" width="395" height="172" /></p>
<p><img class="aligncenter" src="http://files.hypervisor.fr/img/LPoD/LPoD_RAM.png" alt="" width="395" height="172" /></p>
<p style="text-align: justify;">Et pour ceux qui se posent la question, dans ce cluster cumulant 1.5To de RAM attribuée à des VM Windows 2008 R2 et RHEL 6 x64, seulement 40Go de Large Pages sont allouées en moyenne.</p>
<p style="text-align: justify;">Moralité, TPS c&#8217;est bon, mangez-en !</p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=5265</wfw:commentRss>
		<slash:comments>4</slash:comments>
		</item>
		<item>
		<title>Hyper-Vulnérable</title>
		<link>http://www.hypervisor.fr/?p=5062</link>
		<comments>http://www.hypervisor.fr/?p=5062#comments</comments>
		<pubDate>Fri, 28 Mar 2014 13:19:45 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Hyper-V]]></category>
		<category><![CDATA[Bullshit]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=5062</guid>
		<description><![CDATA[Lorsque nous critiquons Hyper-V c&#8217;est évidement dans l&#8217;optique de voir mûrir le produit. Malgré tout, on ne peut pas s’empêcher de penser qu&#8217;il reste encore un peu de chemin&#8230;

]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">Lorsque nous critiquons Hyper-V c&#8217;est évidement dans l&#8217;optique de voir mûrir le produit. Malgré tout, on ne peut pas s’empêcher de penser qu&#8217;il reste encore un peu de chemin&#8230;</p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/hyper_v_2012_ie10.png"><img class="aligncenter" src="http://files.hypervisor.fr/img/hyper_v_2012_ie10.png" alt="" width="477" height="326" /></a></p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=5062</wfw:commentRss>
		<slash:comments>2</slash:comments>
		</item>
		<item>
		<title>(I Can&#8217;t Get No) Overcommit</title>
		<link>http://www.hypervisor.fr/?p=4602</link>
		<comments>http://www.hypervisor.fr/?p=4602#comments</comments>
		<pubDate>Fri, 18 Jan 2013 15:58:21 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Hyper-V]]></category>
		<category><![CDATA[Performance]]></category>
		<category><![CDATA[Bullshit]]></category>
		<category><![CDATA[memory overcommit]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=4602</guid>
		<description><![CDATA[Bien dynamique la mémoire sur Hyper-V 3&#8230;

]]></description>
			<content:encoded><![CDATA[<p>Bien dynamique la mémoire sur Hyper-V 3&#8230;</p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/hyper-v_no_overcommit.png" target="_blank"><img class="aligncenter" src="http://files.hypervisor.fr/img/hyper-v_no_overcommit.png" alt="" width="503" height="378" /></a></p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=4602</wfw:commentRss>
		<slash:comments>20</slash:comments>
		</item>
		<item>
		<title>Au menu de vSphere 5.1</title>
		<link>http://www.hypervisor.fr/?p=4082</link>
		<comments>http://www.hypervisor.fr/?p=4082#comments</comments>
		<pubDate>Tue, 28 Aug 2012 08:04:55 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Hyper-V]]></category>
		<category><![CDATA[News]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[vmworld]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=4082</guid>
		<description><![CDATA[Nous attendons toujours l&#8217;accès au binaires et aux documents pour plus de détails mais pour les flémars voici une petite liste des trucs croustillants que nous avons noté dans les What&#8217;s new de vSphere 5.1 annoncé hier au VMworld 2012 SF :

No more vRAM (5.0+)
In vSphere 5.1, the VMware vSphere Web Client is the new [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">Nous attendons toujours l&#8217;accès au binaires et aux documents pour plus de détails mais pour les flémars voici une petite liste des trucs croustillants que nous avons noté dans les <a href="http://www.yellow-bricks.com/2012/09/11/vcloud-suite-5-1-available/" target="_blank">What&#8217;s new de vSphere 5.1 annoncé hier</a> au VMworld 2012 SF :</p>
<ul>
<li><a href="http://twitpic.com/aobt7e" target="_blank">No more vRAM</a> (5.0+)</li>
<li><span style="text-decoration: underline;">In vSphere 5.1, the VMware vSphere Web Client is the new primary point for vSphere management</span></li>
<li>64 vCPU support</li>
<li>vGPU support (NVIDIA + view)</li>
<li>SE sparse disk (Guest OS Storage Reclamation)</li>
<li>vMotion and Storage vMotion in one operation</li>
<li><strong>Zero-downtime upgrade for VMware Tools</strong> (5.1+)</li>
<li>The vSphere Web Client adds support for interrupt-driven workloads</li>
<li>Maximum number of hosts that can share a read-only file on a VMFS is increased to 32</li>
<li><strong>In vSphere 5.1, a new time-out value for APD is being introduced</strong></li>
<li><strong>VMware provides a generic SMART plug-in in vSphere 5.1</strong></li>
<li>Automatically SIOC tuning congestion threshold</li>
<li><strong>SIOC correlation detector</strong></li>
<li>Auto Deploy &#8220;stateless caching&#8221; and &#8220;stateful installs&#8221;</li>
<li><strong><span style="color: #ff0000;">VDS Configuration Backup and Restore / automatic rollback and recovery</span></strong></li>
<li><strong>LACP support</strong></li>
<li>Network Health Check</li>
<li>SR-IOV support</li>
<li>vSphere 5.1 has introduced the ability to swap out and reduce the memory reservation for several of the vSphere backend processes</li>
<li>Latency Sensitivity Feature</li>
</ul>
<p>VMware a également &#8221;gratuifié&#8221; <a href="http://www.vmware.com/files/pdf/techpaper/Introduction-to-vSphere-Replication.pdf" target="_blank">vSphere Replication</a> sans SRM mais la VR appliance reste mandatory contrairement au modèle d&#8217;<a href="http://www.aidanfinn.com/?p=12147" target="_blank">Hyper-V Replica</a>, ce qui nous apparaît donc comme une piètre riposte de dernière minute&#8230;</p>
<p><img class="aligncenter" src="http://files.hypervisor.fr/img/vmworld2012.png" alt="" width="398" height="307" /></p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=4082</wfw:commentRss>
		<slash:comments>1</slash:comments>
		</item>
		<item>
		<title>And the swap is smart again</title>
		<link>http://www.hypervisor.fr/?p=3869</link>
		<comments>http://www.hypervisor.fr/?p=3869#comments</comments>
		<pubDate>Tue, 01 May 2012 23:50:32 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Hyper-V]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[Bullshit]]></category>
		<category><![CDATA[memory overcommit]]></category>
		<category><![CDATA[swapping]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=3869</guid>
		<description><![CDATA[Alors que nous effectuions des tests sur la beta de Windows 8 server server 2012, nous avons remarqué une option qui avait échappé à notre vigilance lors de la publication par Microsoft du &#8220;What&#8217;s new in hyper-V&#8221; (très troublant si on considère que le produit est toujours en beta mais c&#8217;est une technique bien rodée chez M$) : le Smart [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">Alors que nous effectuions des tests sur la beta de Windows <span style="text-decoration: line-through;">8 server</span> server 2012, nous avons remarqué une option qui avait échappé à notre vigilance lors de la publication par Microsoft du &#8220;<a href="http://technet.microsoft.com/en-us/library/hh831410.aspx#BKMK_DM" target="_blank">What&#8217;s new in hyper-V</a>&#8221; (très troublant si on considère que le produit est toujours en beta <a href="http://www.vcritical.com/2012/04/microsoft-management-summit-2012-a-k-a-mms-2011-for-real-this-time/" target="_blank">mais c&#8217;est une technique bien rodée chez M$</a>) : le <strong>Smart Paging</strong></p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/Hyper-V3_Smart_Paging.png" target="_blank"><img class="aligncenter" src="http://files.hypervisor.fr/img/Hyper-V3_Smart_Paging.png" alt="" width="442" height="416" /></a></p>
<p style="text-align: justify;">En toute honnêteté, pendant 2 secondes nous avons pensé à une killer feature qui permettrait de placer automatiquement la swap du GuestOS sur un vdisk à part ou quelque chose d&#8217;encore plus ingénieux. On y croyait vraiment à mort tant la feature list d&#8217;Hyper-V 3 est impressionnante (pour un produit &#8220;gratuit&#8221;).</p>
<p style="text-align: justify;">Mais non, c&#8217;est juste le fichier de swap de la vm qui va avec une autre nouvelle fonction &#8220;minimum memory&#8221;. Je vous laisse apprécier le descriptif :</p>
<blockquote><p>Dynamic Memory improvements include support for configuring minimum memory, and Smart Paging, which is a memory management technique to provide a <strong>reliable restart experience</strong> for virtual machines configured with less minimum memory than startup memory.<br />
[...]<br />
Smart Paging uses <strong>disk resources</strong> as additional, temporary memory when more memory is required to restart a virtual machine than the amount of memory currently allocated to a virtual machine.</p></blockquote>
<p>Ça c&#8217;est du dépoussiérage de feature où on s&#8217;y connait pas ! Mais c&#8217;est pas fini, on vous a gardé le meilleur pour la fin :</p>
<blockquote><p>To minimize the potential performance impact of Smart Paging, HyperV uses it only when all of the following occurs:</p>
<p>1. <strong>The virtual machine is being restarted.</strong><br />
2. There is no available physical memory.<br />
3. No memory can be reclaimed from other virtual machines running on the host.</p></blockquote>
<p>Et on vous rafraîchi la mémoire sur ce <a href="http://www.google.com/url?sa=t&amp;rct=j&amp;q=&amp;esrc=s&amp;source=web&amp;cd=10&amp;ved=0CGYQFjAJ&amp;url=http%3A%2F%2Fdownload.microsoft.com%2Fdownload%2F2%2F8%2FC%2F28CE6B15-BB29-402B-8645-0706C0A518BF%2FVirt_WP_CostComparison_final.pdf&amp;ei=tnSgT8L9L6PP4QT1yJjpAg&amp;usg=AFQjCNFyZeYfnBzt229jizdEIgx6RLrjFw&amp;sig2=hX1kaIVgbztBKtxVOA466g" target="_blank">qu&#8217;M$ pensait de l&#8217;overcommit quand Hyper-V n&#8217;en était pas capable</a> :</p>
<blockquote><p>What this means is while Memory Overcommit has its uses in certain configurations, it’s not a panacea for virtualization administrators. Memory Overcommit should be used judiciously and only when absolutely necessary.</p></blockquote>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=3869</wfw:commentRss>
		<slash:comments>2</slash:comments>
		</item>
		<item>
		<title>V-index Q3 2011 refresh</title>
		<link>http://www.hypervisor.fr/?p=3434</link>
		<comments>http://www.hypervisor.fr/?p=3434#comments</comments>
		<pubDate>Thu, 03 Nov 2011 00:49:31 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Citrix XenServer]]></category>
		<category><![CDATA[Hyper-V]]></category>
		<category><![CDATA[News]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[v-index]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=3434</guid>
		<description><![CDATA[V-index vient de mettre à jour les résultats de son étude en ligne pour Q3 2011 et c&#8217;est encore plus étonnant que la cuvée précédente :

Average virtual machine to physical host  consolidation ratio : 5,1
Primary Hypervisor usage for Desktop virtualization : 54,2%
Reasons given for changing primary hypervisor  for Server virtualization - Features offered by alternative hypervisors : [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;"><a href="http://www.v-index.com/pdf/v-index_full_report_q3_2011.pdf" target="_blank">V-index vient de mettre à jour les résultats de son étude en ligne pour Q3 2011</a> et c&#8217;est encore plus étonnant que <a href="http://www.hypervisor.fr/?p=3182" target="_blank">la cuvée précédente</a> :</p>
<ul>
<li><strong>Average virtual machine to physical host  consolidation ratio : 5,1</strong></li>
<li>Primary Hypervisor usage for <strong>Desktop virtualization</strong> : 54,2%</li>
<li>Reasons given for changing primary hypervisor  for Server virtualization - <strong>Features offered by alternative hypervisors</strong> : 47,4%</li>
<li>Main concerns preventing increased virtualization &#8211; <strong>Backup and restoration</strong>: 33%</li>
</ul>
<p style="text-align: justify;">On note l&#8217;absence totale de l&#8217;aspect &#8220;sécurité&#8221; pour les &#8220;Main concerns preventing increased virtualization&#8221; et le taux de consolidation moyen dramatiquement bas.</p>
<p><img class="aligncenter" src="http://files.hypervisor.fr/img/vindex-q3.png" alt="" width="468" height="108" /></p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=3434</wfw:commentRss>
		<slash:comments>3</slash:comments>
		</item>
		<item>
		<title>Hyper-V R2 CSV : The Shadow Warrior</title>
		<link>http://www.hypervisor.fr/?p=3301</link>
		<comments>http://www.hypervisor.fr/?p=3301#comments</comments>
		<pubDate>Wed, 31 Aug 2011 18:45:05 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Hyper-V]]></category>
		<category><![CDATA[Kb]]></category>
		<category><![CDATA[Bullshit]]></category>
		<category><![CDATA[FAIL]]></category>
		<category><![CDATA[whitepapers]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=3301</guid>
		<description><![CDATA[Pour être tout à fait honnête, depuis notre découverte d&#8217;Hyper-V R2, nous étions resté sur l&#8217;idée que le backup des VM sur CSV nécessitait un Hardware VSS prodiver et donc une baie de stockage &#8220;Hyper-V R2 compliant&#8221;. Mais en réalité, c&#8217;est encore pire&#8230;

L&#8217;excellent whitepaper d&#8217;Aidan Finn nous permet de comprendre à quel point la partie backup d&#8217;Hyper-v R2 est loin d’être idéale. Si [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">Pour être tout à fait honnête, depuis <a href="http://www.hypervisor.fr/?p=1202" target="_blank">notre découverte d&#8217;Hyper-V R2</a>, nous étions resté sur l&#8217;idée que le backup des VM sur CSV nécessitait un <a href="http://blogs.technet.com/b/dpm/archive/2010/07/08/tested-hardware-vss-provider-table.aspx" target="_blank">Hardware VSS prodiver</a> et donc une baie de stockage &#8220;Hyper-V R2 compliant&#8221;. Mais en réalité, c&#8217;est encore pire&#8230;</p>
<p style="text-align: center;"><img class="aligncenter" src="http://www.magicalement.fr/arteco/images/comedyfunnel.jpg-2.jpg" alt="" width="120" height="154" /></p>
<p style="text-align: justify;"><a href="http://www.aidanfinn.com/?p=11491" target="_blank">L&#8217;excellent whitepaper d&#8217;Aidan Finn</a> nous permet de comprendre à quel point la partie backup d&#8217;Hyper-v R2 est loin d’être idéale. Si vous n&#8217;avez pas d&#8217;Hardware VSS provider, vous &#8220;pourriez&#8221; utilisez le Software VSS provider d&#8217;Hyper-V R2 si vous avez envie de voir les performances de votre infrastructure s&#8217;effondrer :</p>
<blockquote>
<p style="text-align: justify;">Redirected Mode is active from the time that the backup job starts until the backup job completes</p>
</blockquote>
<p style="text-align: justify;">C&#8217;est à dire que <strong>pendant TOUTE la durée du backup, TOUT le trafic disque de TOUTES les VM est redirigé en SMB, par le réseau, vers le CSV coordinator !</strong> Et, pire encore :</p>
<blockquote>
<p style="text-align: justify;"><a href="http://technet.microsoft.com/en-us/library/ff634192.aspx" target="_blank">We recommend that virtual machines deployed on CSV should be backed up serially</a></p>
</blockquote>
<p style="text-align: justify;">En admettant que vous ayez un Hardware VSS provider, vous aurez quand même droit à un petit flood réseau :</p>
<blockquote>
<p style="text-align: justify;">Redirected Mode only takes place for the time it takes the SAN to create a snapshot of the LUN containing the CSV volume</p>
</blockquote>
<p style="text-align: justify;">Et nous avons gardé le meilleur pour la fin :</p>
<blockquote>
<p style="text-align: justify;">If the virtual machine’s Dynamic VHDs need to expand then the CSV Coordinator will have to start Redirected Mode for the entire CSV so it can perform the expansion of the VHD.</p>
</blockquote>
<p style="text-align: justify;">C&#8217;est à dire que <strong>si vos VM sont en thin provisioning, à chaque fois qu&#8217;un VHD doit grossir, TOUT le trafic disque de TOUTES les VM du CSV passe par le réseau en SMB pendant la durée de l&#8217;opération</strong>. La grande classe.</p>
<p style="text-align: justify;">Et si le thin provisioning ne vous fait vraiment pas peur, à plus ou moins court terme le CSV sera fragmenté, et là c&#8217;est le drame :</p>
<blockquote>
<p style="text-align: justify;">Fragmentation leads to greater latency for read operations. You can defrag the physical storage volumes. <strong>In the case of a CSV, that means that the CSV will be in Redirected Mode for the length of the defrag operation</strong></p>
</blockquote>
<p style="text-align: justify;">Alors, la prochaine fois qu&#8217;on vous parle d&#8217;Hyper-V, souriez <img src='http://www.hypervisor.fr/wp-includes/images/smilies/icon_smile.gif' alt=':)' class='wp-smiley' /> </p>
<p style="text-align: center;"><img class="aligncenter" src="http://s.uvlist.net/l/y2008/06/51341.jpg" alt="" width="256" height="192" /></p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=3301</wfw:commentRss>
		<slash:comments>21</slash:comments>
		</item>
		<item>
		<title>suck my cloud</title>
		<link>http://www.hypervisor.fr/?p=3292</link>
		<comments>http://www.hypervisor.fr/?p=3292#comments</comments>
		<pubDate>Tue, 30 Aug 2011 18:38:51 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Hyper-V]]></category>
		<category><![CDATA[News]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[Bullshit]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=3292</guid>
		<description><![CDATA[On sait maintenant où est passé tout le fric que Microsoft aurait du mètre dans Hyper-V pour ne pas se ridiculiser de 20% dans les benchs ou ne pas avoir un footprint 30x trop gros :

]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;"><a href="http://www.winrumors.com/microsoft-pokes-fun-at-vmware-with-%E2%80%9Cvmlimited-man%E2%80%9D-video/" target="_blank">On sait maintenant où</a> est passé tout le fric que Microsoft aurait du mètre dans Hyper-V <a href="http://www.vcritical.com/2011/08/vmware-vsphere-5-outperforms-hyper-v-by-nearly-20/" target="_blank"><strong>pour ne pas se ridiculiser de 20% dans les benchs</strong></a> ou ne pas avoir <a href="https://twitter.com/#!/hypervisor_fr/status/108447920143085568" target="_blank"><strong>un footprint 30x trop gros</strong></a> :</p>
<p style="text-align: center;"><a href="http://vmlimited.ctp.trafficmgr.com/"><img class="aligncenter size-full wp-image-3293" title="VMlimited" src="http://files.hypervisor.fr/img/VMlimited.png" alt="" width="472" height="174" /></a></p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=3292</wfw:commentRss>
		<slash:comments>6</slash:comments>
		</item>
		<item>
		<title>Hypervisor Wars : A new vRAM hope</title>
		<link>http://www.hypervisor.fr/?p=3182</link>
		<comments>http://www.hypervisor.fr/?p=3182#comments</comments>
		<pubDate>Mon, 18 Jul 2011 23:52:17 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Citrix XenServer]]></category>
		<category><![CDATA[Hyper-V]]></category>
		<category><![CDATA[News]]></category>
		<category><![CDATA[VMware]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=3182</guid>
		<description><![CDATA[MAJ 06/08/2011 : C&#8217;est nettement moins stratégique maintenant que VMware a rectifié le tir&#8230;
MAJ 29/07/2011 : Veeam nous a confirmé que le ratio est bien vm/hyperviseur et qu&#8217;ils sont aussi surpris que nous le sommes de ce chiffre d&#8217;autant plus que radio moquette est au taquet avec les rumeurs autour des modifications de licencing VMware&#8230;
MAJ 19/07/2011 [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;"><em><span style="color: #ff0000;">MAJ 06/08/2011</span> : C&#8217;est nettement moins stratégique maintenant que <a href="http://blogs.vmware.com/partner/2011/08/vmware-vsphere-5-licensing-and-pricing-update.html" target="_blank">VMware a rectifié le tir</a>&#8230;</em></p>
<p style="text-align: justify;"><em><span style="color: #ff0000;">MAJ 29/07/2011</span> : <strong>Veeam nous a confirmé que le ratio est bien vm/hyperviseur</strong> et qu&#8217;ils sont aussi surpris que nous le sommes de ce chiffre d&#8217;autant plus que <a href="http://www.gabesvirtualworld.com/vmware-changes-vram-licensing-on-vsphere-5-after-customer-feedback-on-vtax/" target="_blank">radio moquette est au taquet avec les rumeurs autour des modifications de licencing VMware</a>&#8230;</em></p>
<p style="text-align: justify;"><em><span style="color: #ff0000;">MAJ 19/07/2011</span> : Ayant mal interprété les informations, nous avons contacté Veeam pour plus de précisions.</em></p>
<p style="text-align: justify;"><a href="http://blogs.vmware.com/rethinkit/2011/07/understanding-the-vsphere-5-vram-licensing-model.html" target="_blank">En plein délire autour du nouveau mode licensing de VMware</a>, Veeam vient de lancer <a href="http://www.v-index.com/" target="_blank">V-index</a>, un genre de baromètre de la virtualization qui sera mis à jour tous les trimestres.</p>
<p style="text-align: justify;">En plein milieu de la home page, le taux de consolidation moyen de 544 grands comptes : <strong>6:1 vm/host</strong>, c&#8217;est à dire <span style="text-decoration: line-through;">à peine plus que ce que VMware avance mais que personne ne semble croire</span> au moins la moitié de ce que VMware annonce (on suppose que la moyenne est supérieure à 2 sockets par host) :</p>
<blockquote>
<p style="text-align: justify;">The average number of VMs per physical processor is 5.7. I know this may be counter-intuitive to some customers who are pushing the envelope, but the detailed distribution of consolidation ratios is on <a href="http://blogs.vmware.com/.a/6a00d8341c328153ef015433b8bba6970c-pi" target="_blank">the graph below</a>.</p>
</blockquote>
<p style="text-align: justify;">Encore plus fort, <a href="http://www.v-index.com/consolidation-ratio.html" target="_blank">le taux de consolidation &#8220;percu&#8221; (si, si !) serait supérieur au taux de consolidation réel</a>, <strong>9,8 contre 6,3</strong> (déja on gagne 0,3 en passant de la home au détail) :</p>
<blockquote>
<p style="text-align: justify;">Perceived consolidation ratio based on respondents’ own assessment. Actual ratio based on calculation of number of virtual machines divided by number of physical hosts for each individual respondent. Hence perceived consolidation differs from actual.</p>
</blockquote>
<p style="text-align: justify;">On y apprend aussi que XenServer serait mieux implanté de 2% qu&#8217;Hyper-V, <a href="http://www.gartner.com/technology/media-products/reprints/microsoft/vol2/article8a/article8a.html" target="_blank">fraîchement entré dans le carré VIP des Leaders selon la boule de cristal de Gartner&#8230;</a></p>
<p style="text-align: justify;">C&#8217;est quand meme sympa de la part de Veeam vous ne trouvez pas ?</p>
<p style="text-align: justify;"><a href="http://www.v-index.com/"><img class="aligncenter" src="http://www.v-index.com/images/vertical_dark.png" alt="" width="138" height="85" /></a></p>
<p style="text-align: justify;">Et pour ceux qui ne serait pas fort  en calcul mental, <a href="http://blogs.vmware.com/rethinkit/2011/07/understanding-the-vsphere-5-vram-licensing-model.html?cid=6a00d8341c328153ef01538fe722b9970b#comment-6a00d8341c328153ef01538fe722b9970b" target="_blank">un petit quote des commentaires enflammés de futur ex-client VMware</a> :</p>
<blockquote>
<p style="text-align: justify;">Also, vSphere 5 supports 1 TB of RAM in a VM, but why would I virtualize that server if I have to pay VMware 22x Ent Plus licenses at $3,500 ($77,000) to run that much RAM in a VM? Why wouldn&#8217;t I just save the $77K and keep it a physical server&#8230;?</p>
</blockquote>
<p style="text-align: justify;">Ça aurait été mieux un pigeon comme logo plutôt qu&#8217;un mouton non ?</p>
<p style="text-align: center;"><a href="https://twitter.com/#!/VMware_vRAM"><img class="aligncenter" src="https://si0.twimg.com/profile_images/1445442508/Capture2_bigger.jpg" alt="" width="73" height="73" /></a></p>
<div id="_mcePaste" style="position: absolute; left: -10000px; top: 0px; width: 1px; height: 1px; overflow-x: hidden; overflow-y: hidden;"><span style="color: #333333; font-family: Arial, Helvetica, sans-serif; line-height: normal;"></p>
<ul>
<li>The average number of VMs per physical processor is 5.7. I know this may be counter-intuitive to some customers who are pushing the envelope, but the detailed distribution of consolidation ratios is on the graph below.</li>
</ul>
<p></span></div>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=3182</wfw:commentRss>
		<slash:comments>7</slash:comments>
		</item>
		<item>
		<title>Hypervisor Wars : Core Parking GreenbullshIT</title>
		<link>http://www.hypervisor.fr/?p=3037</link>
		<comments>http://www.hypervisor.fr/?p=3037#comments</comments>
		<pubDate>Sat, 04 Jun 2011 23:46:34 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Hyper-V]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[ballooning]]></category>
		<category><![CDATA[Bullshit]]></category>
		<category><![CDATA[DPM]]></category>
		<category><![CDATA[swapping]]></category>
		<category><![CDATA[TPS]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=3037</guid>
		<description><![CDATA[Il y a quelques semaines, Microsoft a posté sur le TechNet Edge une série de vidéos au titre pour le moins évocateur : Virtualization Jump Start. Le but étant d&#8217;enfumer les ignorants avec une petite mise en scène hautement propagandesque qui rappelle celle des impayables guignols de la virtualization.

L’initiative pourrait rester valable si elle n&#8217;était pas gavée de gros morceaux de bullshit comme ce magnifique [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">Il y a quelques semaines, Microsoft a posté sur le TechNet Edge une série de vidéos au titre pour le moins évocateur : <a href="http://technet.microsoft.com/en-us/edge/ff832960.aspx?category=Jump%20Start" target="_blank">Virtualization Jump Start</a>. Le but étant d&#8217;enfumer les ignorants avec une petite mise en scène hautement propagandesque qui rappelle celle des impayables <a href="http://www.hypervisor.fr/?p=701" target="_blank">guignols de la virtualization</a>.</p>
<p><iframe frameborder="0" width="480" height="270" src="http://www.dailymotion.com/embed/video/xj3wq2?logo=0&#038;hideInfos=1"></iframe><br />
L’initiative pourrait rester valable si elle n&#8217;était pas gavée de gros morceaux de bullshit comme ce magnifique tableau comparatif :</p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/parking/SS-2011-05-06_02.16.05.png" title=" " rel="lightbox[3037]"><img class="size-medium wp-image-3077 aligncenter" title=" " src="http://files.hypervisor.fr/img/parking/SS-2011-05-06_02.16.05.png" alt="" width="300" height="224" /></a></p>
<p style="text-align: center;">
<p style="text-align: justify;">Notre <a href="http://bullshito.net/wp-content/uploads/2010/01/bullshit-o-meter.jpg" target="_blank">bullshit-o-meter</a>, déjà dans le rouge, a totalement grillé sur <a href="http://technet.microsoft.com/en-us/edge/virtualization-jump-start-02-differentiating-microsoft-vmware" target="_blank">la séquence comparative Core Parking vs DPM (extrait ci-dessus)</a>. Notre brave Symon (&#8220;Microsoft Technical Evangelist&#8221; en chemise bleu) semble persuadé qu&#8217;un serveur allumé consomme autant qu&#8217;un serveur éteint (où l&#8217;inverse). <a href="http://www.microsoft.com/windowsserver2008/en/us/r2-management.aspx" target="_blank">Et pourtant</a> :</p>
<blockquote>
<p style="text-align: left;">The Core Parking feature allows Windows Server 2008 R2 to consolidate processing onto the fewest number of possible processor cores, and suspends inactive processor cores</p>
</blockquote>
<p style="text-align: justify;">Même si le CPU représente une part non négligeable de la consommation d&#8217;un serveur, il n&#8217;est question en moyenne que d&#8217;<strong>1/4 à 1/3 de la consommation totale</strong>. Mais <a href="http://4sysops.com/archives/scvmm-2012-review-part-4-bare-metal-configuration-dynamic-power-optimization/" target="_blank">quelque chose nous dit</a> que M$ a fini par s&#8217;en apercevoir, ils n&#8217;ont juste pas encore prévenu Symon. Néanmoins, pour pouvoir consolider au maximum il faut un peu mieux que <a href="http://www.vcritical.com/2011/04/hyper-v-dynamic-memory-not-quite-ready-to-demo/" target="_blank">Dynamic Memory</a>&#8230;</p>
<p style="text-align: justify;">Démonstration avec un cluster, hébergeant 66 VM (W2K3 &#8211; 2Go), composé de 12 serveurs bi Xeon 5345 + 8Go de RAM sous ESXi 4.1 build 348481. Les VM de ce cluster devant etre dispo à 100% entre 8h et 19h, <a href="http://www.vmware.com/files/pdf/Distributed-Power-Management-vSphere.pdf" target="_blank">Distributed Power Management</a> est programmé dans vCenter pour s&#8217;activer à 20h et se désactiver à 7h (hors WE). Résultat, <strong>9 serveurs sur 12 OFF</strong> (pour Symon, ça veut plus d’électricité du tout) en heures creuses, c&#8217;est à dire 60% du temps dans notre cas :</p>
<p style="text-align: left;"><a href="http://files.hypervisor.fr/img/parking/Screenshot-2011-06-03_23.22.19.png" title=" " rel="lightbox[3037]"><img class="aligncenter size-medium wp-image-3065" title=" " src="http://www.hypervisor.fr/wp-content/uploads/2011/06/Screenshot-2011-06-03_23.22.19-300x114.png" alt="" width="300" height="114" /></a><a href="http://files.hypervisor.fr/img/parking/Screenshot-2011-06-03_23.14.17.png" title=" " rel="lightbox[3037]"><img class="aligncenter size-medium wp-image-3066" title=" " src="http://www.hypervisor.fr/wp-content/uploads/2011/06/Screenshot-2011-06-03_23.14.17-300x150.png" alt="" width="300" height="150" /></a>Evidemment, impossible d&#8217;atteindre ce taux de consolidation hallucinant de 600% sans l&#8217;aide de <a href="http://www.vmware.com/files/pdf/techpaper/vsp_41_perf_memory_mgmt.pdf" target="_blank">TPS, Ballooning, Memory compression et Hypervisor swapping</a> :</p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/parking/Screenshot-2011-06-03_23.43.09.png" title=" " rel="lightbox[3037]"><img class="aligncenter size-full wp-image-3095" title=" " src="http://www.hypervisor.fr/wp-content/uploads/2011/06/Screenshot-2011-06-03_23.43.09.png" alt="" width="486" height="266" /></a></p>
<p style="text-align: center;">
<p style="text-align: left;">Ça, c&#8217;est du GreenIT et <a href="http://www.hypervisor.fr/?p=317" target="_blank">c&#8217;est dispo depuis 2008</a> !</p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=3037</wfw:commentRss>
		<slash:comments>6</slash:comments>
		</item>
		<item>
		<title>Hypervisor Wars : (Hyper-V R2) SP1 en vaut 2</title>
		<link>http://www.hypervisor.fr/?p=2768</link>
		<comments>http://www.hypervisor.fr/?p=2768#comments</comments>
		<pubDate>Sun, 27 Mar 2011 14:23:17 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Hyper-V]]></category>
		<category><![CDATA[News]]></category>
		<category><![CDATA[bug]]></category>
		<category><![CDATA[Bullshit]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=2768</guid>
		<description><![CDATA[Après des mois de tapage makerting autour de Dynamic Memory (ballooning farceur) et Remote FX (RDP++), le lancement officiel du SP1 de Windows 2008 R2/Hyper-V R2 s&#8217;est fait sans grosses explosions blogesques puisqu&#8217;on en connaissait déjà les détails (mise à part la critique de l’excellent whitepaper Project VRC Phase III au sujet de l&#8217;ASLR sur le Windows [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">Après des mois de tapage makerting autour de Dynamic Memory (<a href="http://blogs.vmware.com/virtualreality/2011/02/hypervisor-memory-management-done-right.html" target="_blank">ballooning farceur</a>) et Remote FX (<a href="http://www.brianmadden.com/topics/Microsoft+RemoteFX/default.aspx" target="_blank">RDP++</a>), le lancement officiel du SP1 de Windows 2008 R2/Hyper-V R2 s&#8217;est fait sans grosses explosions blogesques puisqu&#8217;on en connaissait déjà les détails (mise à part la critique de <a href="http://www.projectvrc.nl/index.php?option=com_docman&amp;task=doc_details&amp;gid=12&amp;Itemid=11" target="_blank">l’excellent whitepaper Project VRC Phase III</a> au sujet de l&#8217;ASLR <a href="http://blogs.technet.com/b/virtualization/archive/2011/02/09/windows-7-and-windows-server-2008-r2-sp1-add-new-virtualization-innovations.aspx" target="_blank">sur le Windows Virtualization Team Blog</a>).</p>
<p style="text-align: justify;">Mais maintenant que les migrations commencent sur les environnements de production, <strong>un problème lié au stockage</strong> (pas encore clairement identifié) <a href="https://twitter.com/#!/PlanetV12n/status/51387187182321664" target="_blank">à été signalé vendredi sur Twitter.</a> Ca va même <a href="http://social.technet.microsoft.com/Forums/en-US/winserverClustering/thread/e67026af-7f9b-4698-9ca7-11853431ed86/" target="_blank">très loin pour certains</a> :</p>
<blockquote><p>[...] in my case running a validation report even damaged the MBR record on the LUNS making them inaccessible to Cluster Shared Volumes. So I lost a good part of my production Hyper-V servers (Thank you back-up).</p></blockquote>
<p style="text-align: justify;">Testez bien avant de patcher, ou migrez vers ESX <a href="http://labs.vmware.com/flings/xvp" target="_blank">avec vCenter XVP Manager</a> <img src='http://www.hypervisor.fr/wp-includes/images/smilies/icon_wink.gif' alt=';)' class='wp-smiley' /> </p>
<p><a href="http://www.youtube.com/watch?v=XoV_Z9caJDw"><img class="aligncenter" src="http://i.zdnet.com/blogs/apple_ad_pc_trustme2.png" alt="" width="476" height="269" /></a></p>
<p style="text-align: center;">&#8220;This time it&#8217;s gonna be different. Trust me.&#8221;</p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=2768</wfw:commentRss>
		<slash:comments>2</slash:comments>
		</item>
		<item>
		<title>ESX à 10 ans !</title>
		<link>http://www.hypervisor.fr/?p=2716</link>
		<comments>http://www.hypervisor.fr/?p=2716#comments</comments>
		<pubDate>Wed, 09 Mar 2011 23:05:29 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Hyper-V]]></category>
		<category><![CDATA[News]]></category>
		<category><![CDATA[VMware]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=2716</guid>
		<description><![CDATA[Oui, 10 ans ! Vu que c&#8217;était &#8220;ya longtemps&#8221; nous ne sommes pas sur de la date exacte mais apparemment ça tourne autours du mois de mars.

Et en juin, on fêtera les 3 ans d&#8217;Hyper-V : youpi !
]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">Oui, <strong><span style="font-size: small;">10 ans</span></strong> ! Vu que c&#8217;était &#8220;ya longtemps&#8221; nous ne sommes pas sur de la date exacte mais <a href="http://replay.waybackmachine.org/20010410205412/http://www.vmware.com/support/" target="_blank">apparemment ça tourne autours du mois de mars</a>.</p>
<p><a href="http://www.hypervisor.fr/wp-content/uploads/2009/05/amd_mojito.jpg" title="mojito" rel="lightbox[2716]"><img class="aligncenter size-full wp-image-712" title="mojito" src="http://www.hypervisor.fr/wp-content/uploads/2009/05/amd_mojito.jpg" alt="" width="120" height="255" /></a></p>
<p>Et en juin, on fêtera <a href="http://en.wikipedia.org/wiki/Hyper-V" target="_blank">les 3 ans d&#8217;Hyper-V</a> : youpi !</p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=2716</wfw:commentRss>
		<slash:comments>4</slash:comments>
		</item>
		<item>
		<title>Hyper-V 3i ?</title>
		<link>http://www.hypervisor.fr/?p=2228</link>
		<comments>http://www.hypervisor.fr/?p=2228#comments</comments>
		<pubDate>Mon, 12 Jul 2010 14:51:10 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Hyper-V]]></category>
		<category><![CDATA[News]]></category>
		<category><![CDATA[MinWin]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=2228</guid>
		<description><![CDATA[PC INpact a récemment fait un billet relatant de l&#8217;avenir d&#8217;Hyper-V et notamment de l&#8217;intégration de MinWin en tant que Parent Partition (en lieu et place de Windows 2008). Si Microsoft parvient à atteindre cet objectif, on pourra alors s&#8217;attendre à une concurrence nettement plus sérieuse face à ESX. On y apprend aussi qu&#8217;Hyper-V V3 [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;"><a href="http://www.pcinpact.com/actu/news/58083-microsoft-bernard-ourghanlian-virtualisation-noyau-windows-win8.htm" target="_blank">PC INpact a récemment fait un billet relatant de l&#8217;avenir d&#8217;Hyper-V</a> et notamment de <strong>l&#8217;intégration de <a href="http://en.wikipedia.org/wiki/MinWin" target="_blank">MinWin</a> en tant que <em>Parent Partition</em></strong> (en lieu et place de Windows 2008). Si Microsoft parvient à atteindre cet objectif, on pourra alors s&#8217;attendre à une concurrence nettement plus sérieuse face à ESX. On y apprend aussi qu&#8217;Hyper-V V3 serait l&#8217;hyperviseur client proposé par Microsoft pour son offre VDI offline.</p>
<p style="text-align: justify;">Nous ne résistons pas à la tentation d&#8217;une citation de notre morceau favoris de l&#8217;interview de Bernard Ourghanlian (Directeur Technique et Sécurité de Microsoft France):</p>
<blockquote>
<p style="text-align: justify;"><em>[à propos du projet MinWin]</em> C&#8217;est un travail qui est assez colossal, puisque cela nécessite de complètement dénouer l&#8217;espèce de « plat de nouilles » qui est aujourd&#8217;hui présent dans le noyau Windows pour des raisons historiques, notamment liées à la version d&#8217;Internet Explorer dans Windows.</p>
</blockquote>
<p style="text-align: center;">
<p><a href="http://www.techradar.com/news/software/operating-systems/the-truth-about-minwin-the-heart-of-windows-7-602055"><img class="aligncenter" title="The truth about MinWin: the heart of Windows 7" src="http://img81.imageshack.us/img81/5341/minwin640x480qp3.png" alt="" width="480" height="360" /></a></p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=2228</wfw:commentRss>
		<slash:comments>8</slash:comments>
		</item>
		<item>
		<title>Hypervisor Wars : ESX(i) 4.0 Patch #5</title>
		<link>http://www.hypervisor.fr/?p=1976</link>
		<comments>http://www.hypervisor.fr/?p=1976#comments</comments>
		<pubDate>Fri, 09 Apr 2010 17:54:09 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Citrix XenServer]]></category>
		<category><![CDATA[Hardware]]></category>
		<category><![CDATA[Hyper-V]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[Benchmark]]></category>
		<category><![CDATA[Hyper-Threading]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=1976</guid>
		<description><![CDATA[Fin Mars, Project VRC à publié une mise à jour à son très populaire Virtual Reality Check &#8211; Phase II (dont nous avions parlé courant Février) qui faisait état des lacunes de vSphere face à ses concurrents en environnement TS/ICA. Comme le décrit Scott Drummond, VMware a été très surpris par ce résultat et à [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">Fin Mars, Project VRC à publié <a href="http://www.projectvrc.nl/index.php?option=com_docman&amp;task=doc_download&amp;gid=11&amp;Itemid=11" target="_blank">une mise à jour</a> à son très populaire Virtual Reality Check &#8211; Phase II (<a href="http://www.hypervisor.fr/?p=1861" target="_blank">dont nous avions parlé courant Février</a>) qui faisait état des lacunes de vSphere face à ses concurrents en environnement TS/ICA. <a href="http://vpivot.com/2010/03/17/vsphere-4-0-hyper-threading-and-terminal-services" target="_blank">Comme le décrit Scott Drummond</a>, VMware a été très surpris par ce résultat et à fini par identifier la cause de ce problème de performance : <strong>En situation de quasi saturation CPU sur un serveur à base de Xeon 5500 avec Hyper-Threading activé, le scheduler d&#8217;ESX(i) maintient la pondération d&#8217;utilisation entre core &#8220;physique&#8221; et core &#8220;Hyper-Threadé&#8221; au détriment des performances globales</strong>.</p>
<blockquote><p>In this scenario, VMware vSphere favors fairness over throughput and sometimes pauses one vCPU to dedicate a whole core to another vCPU, eliminating gains provided by Hyper-Threading</p></blockquote>
<p>Après avoir fourni un patch ainsi que 2 paramètres d&#8217;optimisation, l&#8217;équipe de Project VRC à publié cette fameuse mise à jour qui &#8220;restaure l&#8217;équilibre&#8221; :</p>
<p><a href="http://www.hypervisor.fr/wp-content/uploads/2010/04/patch5.jpg" title="patch5" rel="lightbox[1976]"><img class="aligncenter size-medium wp-image-1978" title="patch5" src="http://www.hypervisor.fr/wp-content/uploads/2010/04/patch5-300x104.jpg" alt="patch5" width="300" height="104" /></a></p>
<blockquote><p>The vSphere 4.0 Update 1 P05 patch clearly has positive impact on TS 2008&#215;64 workload with 4vCPU’s. The performance differences are now very small [...] In practice, performance will be equal for all hypervisors when 4vCPU’s are used with Hyper-threading.</p></blockquote>
<p>Dans le même temps, Citrix publie un bench VDI maison (<a href="http://community.citrix.com/download/thumbnails/131334785/test_setup.png" target="_blank">avec un schéma où l&#8217;on peut voir Hyper-V en NFS et du VHD avec ESX&#8230;</a>) où Hyper-V fait le meilleur score pour Win7 (admirez l&#8217;échelle) mais le moins bon pour WinXP et pourtant Citrix conclu :</p>
<blockquote><p>First, it is clear that the industry&#8217;s two leading hypervisors for these  benchmarks for both TS and VDI, are Hyper-V R2 and XenServer 5.5.</p></blockquote>
<p>Et concernant Virtual Reality Check &#8211; Phase II version 2.0, une petite touche d&#8217;humour :</p>
<blockquote><p>The results clearly stung the VMware folk who rushed out a patch that  they claim fixes their TS performance issues, but they have yet to  disclose whether this affects their VDI performance, and we have yet to  test it.</p></blockquote>
<p>On peut constater clairement que la suite d&#8217;événements autour de ce fameux patch #5 légitiment les résultats des benchmark de Project VRC. Quant à VMware, tout laisse à penser que l&#8217;éditeur tient autant à son image qu&#8217;aux résultats de son hyperviseur. Et concernant le patch en lui même (dispo public depuis le 01/04/2010) nous partageons l&#8217;avis de Scott :</p>
<blockquote><p>Of course production environments rarely (never?) have a one-to-one ratio of vCPUs to logical processors.</p></blockquote>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=1976</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>Project VRC phase 2</title>
		<link>http://www.hypervisor.fr/?p=1861</link>
		<comments>http://www.hypervisor.fr/?p=1861#comments</comments>
		<pubDate>Wed, 24 Feb 2010 12:20:24 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Citrix XenServer]]></category>
		<category><![CDATA[Hardware]]></category>
		<category><![CDATA[Hyper-V]]></category>
		<category><![CDATA[News]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[Benchmark]]></category>
		<category><![CDATA[VRC]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=1861</guid>
		<description><![CDATA[La nouvelle version, tant attendue, du célèbre benchmark Project VRC a été publiée il y a quelques jours. Comparé à l&#8217;ancien benchmark, celui ci à été totalement revu (tests plus lourds et horloge de mesure externe) et effectué sur des serveurs à base de Xeon Nehalem avec les dernières versions des 3 hyperviseurs. Des tests [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">La nouvelle version, tant attendue, du <a href="http://www.projectvrc.nl/">célèbre benchmark <strong>Project VRC</strong></a> a été publiée il y a quelques jours. Comparé à <a href="http://www.hypervisor.fr/?p=1177">l&#8217;ancien benchmark</a>, celui ci à été totalement revu (tests plus lourds et horloge de mesure externe) et effectué sur des serveurs à base de Xeon Nehalem avec les dernières versions des 3 hyperviseurs. Des tests en environnements 64bits font leur apparition et les résultats ont été réunis dans un seul et unique document.</p>
<p>Bien que les auteurs rappellent que ces résultats ne peuvent être sortis du contexte TS/ICA, ils n&#8217;en restent pas moins surprenants :</p>
<p style="text-align: center;"><a href="http://www.hypervisor.fr/wp-content/uploads/2010/02/32bits.jpg" title="32bit" rel="lightbox[1861]"><img class="aligncenter size-full wp-image-1862" title="32bit" src="http://www.hypervisor.fr/wp-content/uploads/2010/02/32bits.jpg" alt="32bit" width="456" height="148" /></a>En 32bit, vSphere domine.</p>
<p style="text-align: center;"><a href="http://www.hypervisor.fr/wp-content/uploads/2010/02/64bit.jpg" title="64bit" rel="lightbox[1861]"><img class="aligncenter size-full wp-image-1868" title="64bit" src="http://www.hypervisor.fr/wp-content/uploads/2010/02/64bit.jpg" alt="64bit" width="456" height="178" /></a>En 64bit, le baremetal domine et vSphere se fait devancer de ~20% !</p>
<p style="text-align: center;"><a href="http://www.hypervisor.fr/wp-content/uploads/2010/02/G5-G6.jpg" title="G5-G6" rel="lightbox[1861]"><img class="aligncenter size-full wp-image-1870" title="G5-G6" src="http://www.hypervisor.fr/wp-content/uploads/2010/02/G5-G6.jpg" alt="G5-G6" width="456" height="117" /></a>Le Gain nextgen hyperviseur/hardware est spectaculaire</p>
<p style="text-align: left;">Une lecture incontournable&#8230;</p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=1861</wfw:commentRss>
		<slash:comments>2</slash:comments>
		</item>
		<item>
		<title>Hypervisor Wars : memory overcommit</title>
		<link>http://www.hypervisor.fr/?p=1845</link>
		<comments>http://www.hypervisor.fr/?p=1845#comments</comments>
		<pubDate>Fri, 19 Feb 2010 13:04:13 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Citrix XenServer]]></category>
		<category><![CDATA[Hyper-V]]></category>
		<category><![CDATA[News]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[memory overcommit]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=1845</guid>
		<description><![CDATA[Alors que Microsoft continue à prétendre que le mécanisme de memory overcommit est dangereux pour votre production (mais, certainement comme pour Vmotion, lorsque cette fonction sera disponible sur Hyper-V, ce sera un gain pour la dynamicité du datacenter&#8230;), notre confrère CTXBLOG nous confirme que XenServer 6 sera capable de &#8220;Dynamic Memory Control &#38; Overcommit&#8221;. Virtualization.info [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">Alors que Microsoft continue à prétendre que le mécanisme de memory overcommit est <a href="http://www.vcritical.com/2010/01/the-truth-about-hyper-v-memory-overcommit/" target="_blank">dangereux pour votre production</a> (mais, certainement comme pour Vmotion, lorsque cette fonction <a href="http://www.virtualization.info/2010/02/hyper-v-to-get-memory-overcommitment.html" target="_blank">sera disponible sur Hyper-V</a>, ce sera un gain pour <a href="http://www.hypervisor.fr/?p=1829" target="_blank">la dynamicité du datacenter</a>&#8230;), notre confrère CTXBLOG nous confirme que <a href="http://ctxblog.fr/index.php?post/2010/02/14/XenServer-6-%28CodeName-Midnight-Ride%29" target="_blank">XenServer 6 sera capable de &#8220;Dynamic Memory Control &amp; Overcommit&#8221;</a>. Virtualization.info <a href="http://www.virtualization.info/2010/02/red-hat-to-introduce-kvm-memory.html" target="_blank">rapporte que RedHat est également très actif sur le sujet</a>.</p>
<p style="text-align: justify;">VMware, soucieux de conserver son avance en la matière, <a href="http://www.yellow-bricks.com/2010/02/13/vmware-partner-exchange-2010/" target="_blank">ajoutera un nouveau mécanisme de memory overcommit dans sa future version : la &#8220;memory compression&#8221;</a>. Il s&#8217;agirait d&#8217;une compression dynamique de pages, ultime étape avant le swapping.</p>
<p>HyperviZor.com a d&#8217;ailleurs dédié un superbe diagrame à ce sujet :</p>
<p><a href="http://www.hypervizor.com/diags/HyperViZor-Diags-ESX-MEMGMT-v1.pdf.pdf"><img class="aligncenter size-full wp-image-1846" title="Memory Overcommitment" src="http://www.hypervisor.fr/wp-content/uploads/2010/02/hypervizor-mem-mgmt.jpg" alt="Memory Overcommitment" width="433" height="304" /></a></p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=1845</wfw:commentRss>
		<slash:comments>10</slash:comments>
		</item>
		<item>
		<title>TechDays 2010 : dynamicité du datacenter</title>
		<link>http://www.hypervisor.fr/?p=1829</link>
		<comments>http://www.hypervisor.fr/?p=1829#comments</comments>
		<pubDate>Fri, 12 Feb 2010 14:02:12 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Hyper-V]]></category>
		<category><![CDATA[News]]></category>
		<category><![CDATA[Bullshit]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=1829</guid>
		<description><![CDATA[N&#8217;ayant pas eu le plaisir de participer aux TechDays 2010 (17000 visiteurs), la curiosité nous a conduits jusqu&#8217;aux vidéos des Plénières. Le silverlight n&#8217;étant pas encore parfaitement maitrisé par Microsoft, impossible de naviguer dans la vidéo sans avoir tout en buffer&#8230; Nous nous sommes donc permis de mettre sur Dailymotion un extrait d&#8217;une démo de [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">N&#8217;ayant pas eu le plaisir de participer aux TechDays 2010 (17000 visiteurs), la curiosité nous a conduits <a href="http://www.microsoft.com/france/mstechdays/" target="_blank">jusqu&#8217;aux vidéos des Plénières</a>. Le silverlight n&#8217;étant pas encore parfaitement maitrisé par Microsoft, impossible de naviguer dans la vidéo sans avoir tout en buffer&#8230; Nous nous sommes donc permis de mettre sur Dailymotion un extrait d&#8217;une démo de Live Migration grâce à SCVMM R2 :</p>
<p><center><object classid="clsid:d27cdb6e-ae6d-11cf-96b8-444553540000" width="480" height="272" codebase="http://download.macromedia.com/pub/shockwave/cabs/flash/swflash.cab#version=6,0,40,0"><param name="allowFullScreen" value="true" /><param name="allowScriptAccess" value="always" /><param name="src" value="http://www.dailymotion.com/swf/xc7buq" /><param name="allowfullscreen" value="true" /><embed type="application/x-shockwave-flash" width="480" height="272" src="http://www.dailymotion.com/swf/xc7buq" allowscriptaccess="always" allowfullscreen="true"></embed></object></center></p>
<p>La VM à migré sans interruption, tout le monde est en plein extase : bienvenue en <a href="http://www.vmware.com/company/news/releases/virtualcenter.html" target="_blank">novembre 2003</a> !</p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=1829</wfw:commentRss>
		<slash:comments>7</slash:comments>
		</item>
		<item>
		<title>La gratuité d&#8217;Hyper-V est un (très) mauvais argument</title>
		<link>http://www.hypervisor.fr/?p=1710</link>
		<comments>http://www.hypervisor.fr/?p=1710#comments</comments>
		<pubDate>Wed, 30 Dec 2009 15:40:32 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Hyper-V]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[Bullshit]]></category>
		<category><![CDATA[marketing]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=1710</guid>
		<description><![CDATA[Anton Zhbankov à posté sur vadmin.ru un comparatif très complet sur les couts d&#8217;architecture (hors stockage) vSphere/Hyper-V. Aussi brulant et pertinent que ce sujet puisse être, il est très (trop ?) largement faussé par le rouleau compresseur marketing Microsoft qui met en avant la gratuité quasi totale de sa solution. Bien que ce soit le [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">Anton Zhbankov à posté sur vadmin.ru <a href="http://translate.google.com/translate?u=http%3A%2F%2Fblog.vadmin.ru%2F2009%2F12%2Fhyper-v-vsphere.html&amp;sl=ru&amp;tl=en&amp;hl=&amp;ie=UTF-8">un comparatif très complet sur les couts d&#8217;architecture (hors stockage) vSphere/Hyper-V</a>. Aussi brulant et pertinent que ce sujet puisse être, il est très (trop ?) largement faussé par <strong>le rouleau compresseur marketing Microsoft</strong> qui met en avant la gratuité quasi totale de sa solution. Bien que ce soit le seul argument à peu près valable face à vSphere (on les voient mal parler des performances ou des fonctionnalités&#8230;), le comparatif d&#8217;Anton nous prouve le contraire :</p>
<p style="text-align: center;"><a href="http://www.hypervisor.fr/wp-content/uploads/2009/12/128G-1.4mem.jpg" title="128G-1.4mem" rel="lightbox[1710]"><img class="aligncenter size-full wp-image-1711" title="128G-1.4mem" src="http://www.hypervisor.fr/wp-content/uploads/2009/12/128G-1.4mem.jpg" alt="128G-1.4mem" width="478" height="128" /></a>Couts en $ / VM (128Go/ host)</p>
<p style="text-align: justify;">Le secret de ces résultats est la gestion de la mémoire, <a href="http://vinternals.com/2009/04/microsoft-hyper-v-20-no-memory-overcommit/">largement critiqué par Microsoft.</a> Anton a donc fait ses calculs avec différents ratio de sur-allocation (1.2, 1.3 et 1.4), ce qui permet d&#8217;avoir plusieurs points de comparaison pour différents corps de métier. Le résultat est évidement proportionnel : la différence de prix est réduite par le nombre croissant de VM <strong>jusqu&#8217;à devenir en défaveur d&#8217;Hyper-V sur des serveurs à 64Go de RAM et plus !</strong></p>
<p style="text-align: left;"><a href="http://www.vcritical.com/2009/11/layers-and-layers-of-fud/#comment-9401">Merci à Anton de nous avoir fait partager son étude</a>.</p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=1710</wfw:commentRss>
		<slash:comments>27</slash:comments>
		</item>
	</channel>
</rss>
