<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Hypervisor.fr &#187; DRS</title>
	<atom:link href="http://www.hypervisor.fr/?feed=rss2&#038;tag=drs" rel="self" type="application/rss+xml" />
	<link>http://www.hypervisor.fr</link>
	<description>French Bare-Metal weblog</description>
	<lastBuildDate>Wed, 26 Jun 2024 22:42:28 +0000</lastBuildDate>
	<generator>http://wordpress.org/?v=2.9.2</generator>
	<language>en</language>
	<sy:updatePeriod>hourly</sy:updatePeriod>
	<sy:updateFrequency>1</sy:updateFrequency>
			<item>
		<title>Oh my DRS Goodness!</title>
		<link>http://www.hypervisor.fr/?p=5043</link>
		<comments>http://www.hypervisor.fr/?p=5043#comments</comments>
		<pubDate>Fri, 21 Feb 2014 18:37:58 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Kb]]></category>
		<category><![CDATA[Performance]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[Distributed Resource Scheduler]]></category>
		<category><![CDATA[DRS]]></category>
		<category><![CDATA[overcommit]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=5043</guid>
		<description><![CDATA[Ceux d&#8217;entre nous qui faisons de l&#8217;administration d&#8217;infrastructure vSphere au quotidien ont au moins une fois entendu la fameuse phrase &#8220;Mais pourquoi DRS ne fait rien alors que le cluster n&#8217;est pas équilibré ?!&#8220;. Le sujet à déjà largement été traité par des références dans le domaine comme l&#8217;est Frank Denneman mais nous allons reformuler [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">Ceux d&#8217;entre nous qui faisons de l&#8217;administration d&#8217;infrastructure vSphere au quotidien ont au moins une fois entendu la fameuse phrase &#8220;<em><strong>Mais pourquoi DRS ne fait rien alors que le cluster n&#8217;est pas équilibré ?!</strong></em>&#8220;. Le sujet à déjà largement été traité par des références dans le domaine comme l&#8217;est <a href="https://twitter.com/frankdenneman" target="_blank">Frank Denneman</a> mais nous allons reformuler la raison une bonne fois pour toute et en français<strong> : DRS ne déclenchera un vmotion que si le gain du déplacement est supérieur à son coût.</strong></p>
<p style="text-align: justify;">Evidemment il y a un algorithme complexe, du paramétrage et des seuils variables pour rendre le mécanisme suffisamment intelligent mais dans le cas d&#8217;un cluster pas ou peu overcommité (cpu et/ou ram uniquement), le déséquilibre est une situation &#8220;normale&#8221; puisque le coût d&#8217;un vmotion sera presque toujours supérieur a son bénéfice. <strong>DRS estime le gain à partir de la demande des vm et n&#8217;a de raison d&#8217;agir que si elles ne peuvent pas obtenir les ressources demandées</strong>. Le bon nivellement des VM dans le cluster n&#8217;est absolument pas pris en compte. De plus, DRS fait une projection de ce que la vm pourrait consommer dans un futur proche en fonction des statistiques passées afin de ne pas réagir trop tard.</p>
<p style="text-align: justify;">Néanmoins, dans certains cas il peut s’avérer nécessaire de forcer DRS à &#8220;secouer&#8221; un peu le cluster pour répartir les vm. Après une opération de maintenance ou de façon proactive (moins de vm par host=moins de conséquences en cas de crash) ou encore pour niveler les I/O disque/réseau pas (encore) pris en compte par DRS.</p>
<p style="text-align: justify;">Nous nous sommes justement retrouvés dans cette situation suite à l&#8217;ajout de plusieurs host dans un cluster 5.0 U1 et face à l&#8217;immobilisme de DRS, <a href="http://frankdenneman.nl/2012/07/09/disabling-mingoodness-and-costbenefit/" target="_blank">nous nous sommes souvenus d&#8217;un post détaillé de Frank à ce sujet</a> faisant référence à <a href="http://kb.vmware.com/kb/1017291" target="_blank">une kb vmware</a>.</p>
<blockquote>
<p style="text-align: justify;">This issue may occur in an environment with a large number of relatively low demand virtual machines</p>
</blockquote>
<p style="text-align: justify;">Il s&#8217;agit de modifier <strong>*temporairement*</strong> les paramètres MinGoodness et CostBenefit pour que DRS déclenche un vmotion à la moindre occasion sans en considérer le coût. le résultat est immédiat :</p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/DRSGoodness/drs_goodness_before.png" target="_blank"><img class="aligncenter" src="http://files.hypervisor.fr/img/DRSGoodness/drs_goodness_before.png" alt="" width="379" height="238" /></a></p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/DRSGoodness/drs_goodness_after.png" target="_blank"><img class="aligncenter" src="http://files.hypervisor.fr/img/DRSGoodness/drs_goodness_after.png" alt="" width="373" height="236" /></a></p>
<p style="text-align: justify;"><a href="http://download3.vmware.com/vmworld/2012/top10/vsp2825.pdf" target="_blank">Depuis vSphere 5.1, l&#8217;algorithme de DRS à été modifié pour palier à des situations similaires</a> (vSphere 4.1 U3 et vSphere 5.0 U2 intègre aussi la modification) <a href="https://www.vmware.com/support/vsphere5/doc/vsp_vc50_u2_rel_notes.html" target="_blank">mais il est toujours possible de forcer si besoin avec d&#8217;autres paramètres</a> :</p>
<blockquote>
<p style="text-align: justify;">Starting with this release, DRS algorithm is improved to better balance the load in a DRS cluster. If you notice that the cluster is still not balanced with the default settings, you can configure the advanced DRS options with the following values and run DRS to further improve the load balancing capability of the DRS cluster:</p>
<p>SevereImbalanceDropCostBenefit 1<br />
FixSevereImbalanceOnly 0</p></blockquote>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=5043</wfw:commentRss>
		<slash:comments>2</slash:comments>
		</item>
		<item>
		<title>#QuickDasAutoSlotSize Failover Capacity (Planning)</title>
		<link>http://www.hypervisor.fr/?p=5004</link>
		<comments>http://www.hypervisor.fr/?p=5004#comments</comments>
		<pubDate>Tue, 24 Dec 2013 17:16:10 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[News]]></category>
		<category><![CDATA[Performance]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[capacity planning]]></category>
		<category><![CDATA[DRS]]></category>
		<category><![CDATA[FDM]]></category>
		<category><![CDATA[HA]]></category>
		<category><![CDATA[Noël]]></category>
		<category><![CDATA[PowerCLI]]></category>
		<category><![CDATA[powershell]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=5004</guid>
		<description><![CDATA[Depuis plusieurs mois maintenant, nous utilisons notre script HA AutoSlotSize sur un environnement composé de plusieurs gros cluster comme celui-ci :

Premier constat, le temps de compute des valeurs moyennes de cpu et ram est très important et c&#8217;est évidement proportionnel au nombre de nœuds. Pour optimiser ce script, nous nous somme rabattu sur les quickstats [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">Depuis plusieurs mois maintenant, nous utilisons notre <a href="http://www.hypervisor.fr/?p=4283" target="_blank">script HA AutoSlotSize</a> sur un environnement composé de plusieurs gros cluster comme celui-ci :</p>
<p><img class="aligncenter" src="http://files.hypervisor.fr/img/AutoSlotSize/ha_quick_general.png" alt="" width="381" height="325" /></p>
<p style="text-align: justify;">Premier constat, le temps de compute des valeurs moyennes de cpu et ram est très important et c&#8217;est évidement proportionnel au nombre de nœuds. <strong>Pour optimiser ce script, nous nous somme rabattu sur <a href="http://pubs.vmware.com/vsphere-55/topic/com.vmware.wssdk.apiref.doc/vim.ResourcePool.Summary.QuickStats.html" target="_blank">les quickstats du resource pool</a> &#8220;racine&#8221; du cluster</strong> (<a href="http://www.hypervisor.fr/?p=4841" target="_blank">aka &#8220;resources&#8221;</a>). Ces valeurs étant basé sur les 5 dernières minutes d&#8217;activité (et non sur les 24 dernières heures comme le script original),<strong> il faut l&#8217;exécuter au moment de la journée où l&#8217;activité du cluster est la plus importante </strong>pour avoir des valeurs vraiment représentatives du workload. Le gros avantage de ces valeurs est qu&#8217;il n&#8217;est pas nécessaire de faire une requête dans les statistiques, elles sont <em>pré-computées</em> et disponibles sous forme de propriétés, on passe donc d&#8217;une exécution pouvant aller jusqu&#8217;à plusieurs minutes à 2 secondes par cluster. Comme dirait <a href="http://www.dailymotion.com/video/xxkxw_007-tu-peux-pas-test_fun" target="_blank">Mozinor</a>, &#8220;tu peux pas test&#8221;.</p>
<p style="text-align: justify;">Deuxième constat, le <a href="http://pubs.vmware.com/vsphere-55/topic/com.vmware.wssdk.apiref.doc/vim.cluster.DasConfigInfo.html#admissionControlPolicy" target="_blank">mode &#8220;slot size&#8221; d&#8217;admition control</a> ne tiens pas compte de l&#8217;overcommit. <a href="http://www.amazon.fr/VMware-vSphere-5-1-Clustering-Deepdive/dp/1478183411/ref=sr_1_1" target="_blank">Duncan et Frank l&#8217;explique en détail dans leur bouquin</a> mais voici un exemple encore plus parlant :</p>
<p><img class="aligncenter" src="http://files.hypervisor.fr/img/AutoSlotSize/ha_quick_slot_policy.png" alt="" width="412" height="202" /></p>
<p><img class="aligncenter" src="http://files.hypervisor.fr/img/AutoSlotSize/ha_quick_percent_policy.png" alt="" width="410" height="218" /></p>
<p style="text-align: justify;">3 hosts sur 12 (25%) en mode &#8220;slot size&#8221; contre 67% en mode &#8220;resources&#8221;. Dans ce dernier mode, HA tiens compte de la <strong>consommation réelle</strong> du cluster pour déterminer ce qu&#8217;il reste.</p>
<blockquote>
<p style="text-align: justify;">With the resources failover policy in place, vSphere HA uses the following calculations to control virtual machine migration in the cluster<br />
1. Calculate the total resource requirements for all powered-on virtual machines in the cluster.<br />
[...]</p>
</blockquote>
<p>Il est donc clair que sur des gros cluster avec de l&#8217;overcommit, le mode &#8220;slot size&#8221; est totalement inutilisable.</p>
<p>En attendant de déguster la dinde farcie aux marrons de tante Yolande, voici le oneliner powershell à deguster en amuse-bouche :</p>
<pre class="brush: powershell; title: ; notranslate">foreach ($cluster in (Get-View -ViewType ClusterComputeResource|?{$_.ConfigurationEx.DasConfig.Enabled})) {,($cluster|?{$_.host}|select @{n=&quot;mem&quot;;e={(($_|%{(Get-View $cluster.ResourcePool|?{$_.Parent -eq $cluster.Moref}).Summary.QuickStats.HostMemoryUsage/(Get-View -ViewType virtualmachine -SearchRoot $cluster.moref -Property Runtime.PowerState|?{$_.Runtime.PowerState -eq &quot;poweredOn&quot;}).count}))}}, @{n=&quot;cpu&quot;;e={(($_|%{((Get-View $cluster.ResourcePool|?{$_.Parent -eq $cluster.Moref}).Summary.QuickStats.OverallCpuUsage)/(Get-View -ViewType virtualmachine -SearchRoot $cluster.moref -Property Runtime.PowerState|?{$_.Runtime.PowerState -eq &quot;poweredOn&quot;}).count}))}}, @{n=&quot;vcpu&quot;;e={(Get-View -ViewType virtualmachine -SearchRoot $cluster.moref -Property Runtime.PowerState,Config.Hardware.NumCpu|?{$_.Runtime.PowerState -eq &quot;poweredOn&quot;}|Select @{n=&quot;vcpu&quot;;e={$_.Config.Hardware.NumCPU}}|Measure-Object -Average -Property vcpu).average}}|measure -average -property mem,cpu,vcpu|%{[math]::round($_.average,0)})|%{if (($_|measure -Sum).sum -ne ($cluster.ConfigurationEx.DasConfig.Option|?{$_.key -match &quot;das.slotCpuInMhz|das.slotMemInMB&quot;}|measure -Sum -Property value).sum -and ($_|measure -Sum).sum -gt &quot;64&quot;) {$cluster.ReconfigureComputeResource((New-Object VMware.Vim.ClusterConfigSpecEx -property @{dasConfig=(New-Object VMware.Vim.ClusterDasConfigInfo -property @{option=@((New-Object VMware.Vim.OptionValue -property @{key=&quot;das.vmMemoryMinMB&quot;;value=$_[0].tostring()});(New-Object VMware.Vim.OptionValue -property @{key=&quot;das.vmCpuMinMHz&quot;;value=$_[1].tostring()});(New-Object VMware.Vim.OptionValue -property @{key=&quot;das.slotMemInMB&quot;;value=$_[0].tostring()});(New-Object VMware.Vim.OptionValue -property @{key=&quot;das.slotCpuInMhz&quot;;value=$_[1].tostring()}))})}),$true)}}}</pre>
<p>Joyeux Noël à tous !</p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=5004</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>vSphere 5.1 sans le webclient : Cluster utilization</title>
		<link>http://www.hypervisor.fr/?p=4841</link>
		<comments>http://www.hypervisor.fr/?p=4841#comments</comments>
		<pubDate>Mon, 29 Jul 2013 06:55:57 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[HowTo]]></category>
		<category><![CDATA[Performance]]></category>
		<category><![CDATA[Tips & Tricks]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[DRS]]></category>
		<category><![CDATA[ResourcePool]]></category>
		<category><![CDATA[sso]]></category>
		<category><![CDATA[webclient]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=4841</guid>
		<description><![CDATA[Si vos amis se moquent de vous parce que vous n&#8217;utilisez toujours pas le webclient, ils déballent surement les nouvelles features telles que l&#8217;onglet &#8220;Utilization&#8221; des cluster :

Disponible uniquement sur les resource pools dans le client legacy, cette vue synthétise l&#8217;utilisation &#8220;near real-time&#8221; cpu/ram du cluster des 5 dernières minutes (quickstats). Il suffit de créer [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">Si vos amis se moquent de vous parce que vous n&#8217;utilisez toujours pas le webclient, ils déballent surement les nouvelles features telles que l&#8217;onglet &#8220;Utilization&#8221; des cluster :</p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/cluster_utilization_vspwc.png" target="_blank"><img class="aligncenter" src="http://files.hypervisor.fr/img/cluster_utilization_vspwc.png" alt="" width="486" height="301" /></a></p>
<p style="text-align: justify;">Disponible uniquement sur les resource pools dans le client legacy, cette vue synthétise l&#8217;utilisation &#8220;near real-time&#8221; cpu/ram du cluster <span style="text-decoration: line-through;">des 5 dernières minutes</span> (<a href="http://vijava.sourceforge.net/vSphereAPIDoc/ver51/ReferenceGuide/vim.ResourcePool.Summary.QuickStats.html" target="_blank">quickstats</a>). Il suffit de créer un resource pool à la racine de votre cluster (sans reservations ni limites, les shares n&#8217;ont pas d&#8217;importances ici) pour avoir une visibilité comparable des ressources du cluster :</p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/cluster_utilization_vspc_root.png" target="_blank"><img class="aligncenter" src="http://files.hypervisor.fr/img/cluster_utilization_vspc_root.png" alt="" width="503" height="325" /></a></p>
<p style="text-align: justify;">La vue &#8220;Guest Memory&#8221; se paye même le luxe d’être un peu plus détaillée graphiquement alors que la vue &#8220;Host Memory&#8221; est faussée par la mémoire allouée aux VM.</p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=4841</wfw:commentRss>
		<slash:comments>1</slash:comments>
		</item>
		<item>
		<title>[PSH] Shake My VM</title>
		<link>http://www.hypervisor.fr/?p=3235</link>
		<comments>http://www.hypervisor.fr/?p=3235#comments</comments>
		<pubDate>Tue, 16 Aug 2011 22:39:13 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Tips & Tricks]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[DRS]]></category>
		<category><![CDATA[oneliner]]></category>
		<category><![CDATA[PowerCLI]]></category>
		<category><![CDATA[powershell]]></category>
		<category><![CDATA[scripting]]></category>
		<category><![CDATA[VMotion]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=3235</guid>
		<description><![CDATA[Pour appliquer à chaud des settings comme un changement de VMM ou de swapfile, l&#8217;idéal c&#8217;est un bon vieux vmotion (grâce au &#8220;Power-on VM on destination host&#8220;). Le problème c&#8217;est que sur un cluster, le plus simple est de mettre les ESX en maintenance mode à tour de rôle mais c&#8217;est aussi le plus pénible ! [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">Pour appliquer à chaud des settings comme <a href="http://www.hypervisor.fr/?p=1879">un changement de VMM</a> ou de <a href="http://www.hypervisor.fr/?p=2970">swapfile</a>, l&#8217;idéal c&#8217;est un bon vieux vmotion (grâce au &#8220;<a href="http://mylearn.vmware.com/courseware/26123/TA1405.PDF" target="_blank">Power-on VM on destination host</a>&#8220;). Le problème c&#8217;est que sur un cluster, le plus simple est de mettre les ESX en maintenance mode à tour de rôle mais c&#8217;est aussi le plus pénible ! Le top c&#8217;est un petit OneLiner de derrière les fagots qui va &#8220;secouer&#8221; vos VM :</p>
<pre class="brush: powershell; title: ; notranslate">get-vm|?{$_.PowerState -eq &quot;PoweredOn&quot;}|%{move-vm -vm $_ -destination (get-random @((($vmhost = $_.Vmhost).Parent|get-view).host|%{get-view $_}|?{$_.Runtime.ConnectionState -eq &quot;connected&quot; -and !$_.Runtime.InMaintenanceMode -and $_.Runtime.StandbyMode -eq &quot;none&quot; -and $_.name -cne $vmhost.name})).name -whatif}</pre>
<p style="text-align: justify;">Pour être un peu plus précis, ce script va faire un vmotion sur un des autres ESX disponibles du cluster parent. OneLiner oblige, ce script ne tient pas compte des vm qui seraient déplacées par DRS avant son passage. Il est par contre nécessaire d&#8217;avoir un minimum de &#8220;mou&#8221; sur le cluster en question pour éviter une vilaine contention.</p>
<p style="text-align: justify;">Dans l&#8217;état, le script vous affichera la liste des vmotion, il suffit d&#8217;ôter le &#8220;-whatif&#8221; et relancer pour agiter la pulpe <img src='http://www.hypervisor.fr/wp-includes/images/smilies/icon_smile.gif' alt=':)' class='wp-smiley' /> </p>
<p style="text-align: justify;"><img class="aligncenter" src="http://files.hypervisor.fr/img/logo_orangina_rouge.jpg" alt="" width="213" height="213" /></p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=3235</wfw:commentRss>
		<slash:comments>2</slash:comments>
		</item>
		<item>
		<title>vSphere 4.1 : IO DRS</title>
		<link>http://www.hypervisor.fr/?p=1853</link>
		<comments>http://www.hypervisor.fr/?p=1853#comments</comments>
		<pubDate>Tue, 23 Feb 2010 15:49:36 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[News]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[DRS]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=1853</guid>
		<description><![CDATA[Les heureux participants du PEX 2010 (VMware Partner Exchange) ont eu le privilège d&#8217;en apprendre plus sur la future version d&#8217;ESX(i) et notamment sur IO DRS, qui permettra la mise en place d&#8217;IO shares pour une meilleure maîtrise des ressources de stockages. Rich Brambley de VM/ETC a mis en ligne le pdf de la tech [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">Les heureux participants du PEX 2010 (VMware Partner Exchange) ont eu le privilège d&#8217;en apprendre plus sur la future version d&#8217;ESX(i) et notamment sur <strong>IO DRS,</strong> qui permettra la mise en place d&#8217;<strong>IO shares</strong> pour une meilleure maîtrise des ressources de stockages. <a href="http://vmetc.com/2010/02/20/exploring-vmware-vsphere-and-view-next-version-features/" target="_blank">Rich Brambley de VM/ETC a mis en ligne le pdf</a> de la tech preview, datant des vmworld 2009 mais néanmoins riche en informations :</p>
<p><a href="http://vmetc.com/wp-content/uploads/downloads/2010/02/TA3461_formatted.pdf"><img class="aligncenter size-full wp-image-1857" title="IODRS" src="http://www.hypervisor.fr/wp-content/uploads/2010/02/IODRS.jpg" alt="IODRS" width="362" height="272" /></a></p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=1853</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>VMware DPM en Vidéo</title>
		<link>http://www.hypervisor.fr/?p=317</link>
		<comments>http://www.hypervisor.fr/?p=317#comments</comments>
		<pubDate>Thu, 06 Nov 2008 12:43:21 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[News]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[DPM]]></category>
		<category><![CDATA[DRS]]></category>
		<category><![CDATA[ESX]]></category>
		<category><![CDATA[HA]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=317</guid>
		<description><![CDATA[yellow-bricks a déniché une vidéo sur la fonction (toujours en statut expérimental) Distributed Power Management. 55% d&#8217;économie d&#8217;énergie.

]]></description>
			<content:encoded><![CDATA[<p><a href="http://www.yellow-bricks.com/2008/11/05/vmware-distributed-power-mgmt-dpm-lets-do-it/">yellow-bricks</a> a déniché une vidéo sur la fonction (toujours en statut expérimental) Distributed Power Management. 55% d&#8217;économie d&#8217;énergie.</p>
<p><object width="425" height="344"><param name="movie" value="http://www.youtube.com/v/7CbRS0GGuNc&#038;hl=en&#038;fs=1"></param><param name="allowFullScreen" value="true"></param><param name="allowscriptaccess" value="always"></param><embed src="http://www.youtube.com/v/7CbRS0GGuNc&#038;hl=en&#038;fs=1" type="application/x-shockwave-flash" allowscriptaccess="always" allowfullscreen="true" width="425" height="344"></embed></object></p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=317</wfw:commentRss>
		<slash:comments>1</slash:comments>
		</item>
	</channel>
</rss>
