<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Hypervisor.fr &#187; RVI</title>
	<atom:link href="http://www.hypervisor.fr/?feed=rss2&#038;tag=rvi" rel="self" type="application/rss+xml" />
	<link>http://www.hypervisor.fr</link>
	<description>French Bare-Metal weblog</description>
	<lastBuildDate>Wed, 26 Jun 2024 22:42:28 +0000</lastBuildDate>
	<generator>http://wordpress.org/?v=2.9.2</generator>
	<language>en</language>
	<sy:updatePeriod>hourly</sy:updatePeriod>
	<sy:updateFrequency>1</sy:updateFrequency>
			<item>
		<title>TPS &amp; vMMU (le retour) &#8211; MAJ</title>
		<link>http://www.hypervisor.fr/?p=1879</link>
		<comments>http://www.hypervisor.fr/?p=1879#comments</comments>
		<pubDate>Wed, 24 Feb 2010 16:13:26 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Hardware]]></category>
		<category><![CDATA[Tips & Tricks]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[RVI]]></category>
		<category><![CDATA[TPS]]></category>
		<category><![CDATA[vMMU]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=1879</guid>
		<description><![CDATA[Nous en parlions il y a quelques temps déjà, le TPS ne fonctionne pas lorsque vMMU est pris en charge matériellement (RVI ou EPT) à cause des &#8220;large pages&#8221;. Nous nous sommes livrés à de petites expériences pour illustrer la différence swMMU/hwMMU :

Les tests ont été fait sur un serveur lame IBM LS42 (Opteron 8376 [...]]]></description>
			<content:encoded><![CDATA[<p>Nous en parlions <a href="http://www.hypervisor.fr/?p=580" target="_blank">il y a quelques temps déjà</a>, le TPS ne fonctionne pas lorsque vMMU est pris en charge matériellement (RVI ou EPT) à cause des &#8220;large pages&#8221;. Nous nous sommes livrés à de petites expériences pour illustrer la différence swMMU/hwMMU :</p>
<p style="text-align: center;"><a href="http://hypervisor.free.fr/img/swMMU-hwMMU.jpg" title="vMMU" rel="lightbox[1879]"><img class="aligncenter" title="vMMU" src="http://hypervisor.free.fr/img/swMMU-hwMMU.jpg" alt="" width="458" height="258" /></a></p>
<p style="text-align: left;">Les tests ont été fait sur un serveur lame IBM LS42 (Opteron 8376 HE / 32Go), nous y avons démarré 30 VM identiques (W2K3EE) à 10sec d&#8217;intervalle, avec le paramètre de vMMU forcé. On voit clairement sur le graphique que le TPS &#8220;récupère&#8221; beaucoup plus de mémoire en swMMU qu&#8217;en hwMMU.</p>
<p style="text-align: left;"><a href="http://communities.vmware.com/message/1481861" target="_blank">Halesh (VMware R&amp;D) nous a confirmé</a> que dans cette situation, le TPS n&#8217;agissait que sur les pages &#8220;zeroed&#8221; au boot de la VM. Seongbeom Kim (VMware) nous en dis plus par mail :</p>
<blockquote><p>On EPT/RVI platform, large pages are used to back guest memory request for better performance. This delays page sharing until the host goes into memory overcommitted situation.<br />
<strong>In more recent updates to ESX4.0 (including build 219382), zero pages are shared in 4K granularity while guestOS boot-process zeros all guest memory.</strong><br />
This approach provides early sharing and can be beneficial for guests that do not access all the configured memory.<br />
Whenever the shared page is broken, we try to back it with large page to achieve better performance.</p></blockquote>
<p style="text-align: left;">Mais le plus fort c&#8217;est que <strong>le vMMU peut être changé à chaud grâce à VMotion</strong> (en changeant le paramètre avant le VMotion bien-sur) ! Pour illustrer cette prouesse purement futile, nous avons superposé les 2 graphiques mémoire des 2 hosts :</p>
<p style="text-align: center;"><a href="http://hypervisor.free.fr/img/vMMU_vMotion.jpg" title="vMMU vMotion" rel="lightbox[1879]"><img class="aligncenter" title="vMMU vMotion" src="http://hypervisor.free.fr/img/vMMU_vMotion.jpg" alt="" width="400" height="112" /></a></p>
<p style="text-align: left;"><span style="text-decoration: line-through;">Nous attendons d&#8217;en savoir plus sur la &#8220;légitimité&#8221; de cette &#8220;feature&#8221;&#8230;<br />
</span></p>
<p style="text-align: left;">Selon Halesh, le fonctionnement de VMotion explique cet effet :</p>
<blockquote>
<p style="text-align: left;">For VMotion we need common CPUs across source &amp; destination. But as you said during vmotion, vMMU worlds are restarted/newly created on destination this might be supporting.</p>
</blockquote>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=1879</wfw:commentRss>
		<slash:comments>1</slash:comments>
		</item>
	</channel>
</rss>
