<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Hypervisor.fr &#187; thin provisioning</title>
	<atom:link href="http://www.hypervisor.fr/?feed=rss2&#038;tag=thin-provisioning" rel="self" type="application/rss+xml" />
	<link>http://www.hypervisor.fr</link>
	<description>French Bare-Metal weblog</description>
	<lastBuildDate>Wed, 26 Jun 2024 22:42:28 +0000</lastBuildDate>
	<generator>http://wordpress.org/?v=2.9.2</generator>
	<language>en</language>
	<sy:updatePeriod>hourly</sy:updatePeriod>
	<sy:updateFrequency>1</sy:updateFrequency>
			<item>
		<title>thin&#124;thick on thin&#124;thick chick chicky boom &#8211; MAJ</title>
		<link>http://www.hypervisor.fr/?p=5318</link>
		<comments>http://www.hypervisor.fr/?p=5318#comments</comments>
		<pubDate>Mon, 15 Dec 2014 09:33:44 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Hardware]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[ZFS]]></category>
		<category><![CDATA[Bullshit]]></category>
		<category><![CDATA[LUN]]></category>
		<category><![CDATA[overcommit]]></category>
		<category><![CDATA[thin provisioning]]></category>
		<category><![CDATA[VAAI]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=5318</guid>
		<description><![CDATA[MAJ 11/05/2017 : Et voila ce que ça donne en production :


Nous profitons de la sortie de FreeNAS 9.3, qui introduit le support des primitives VAAI TPST et TPSTUN, pour dissiper, une bonne fois pour toute on l&#8217;espère, le brouillard de bullshit récurant autour du thin on thin (en mode block).


Pour rappel, TPST(W) et TPSTUN, [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;"><em><span style="color: #ff0000;">MAJ 11/05/2017</span> : Et voila ce que ça donne en production :</em></p>
<p style="text-align: center;"><em><a href="http://files.hypervisor.fr/img/Thin_on_Thin/TPST_IRL.png" title="TPST_IRL" rel="lightbox[5318]"><img class="aligncenter size-medium wp-image-5813" title="TPST_IRL" src="http://www.hypervisor.fr/wp-content/uploads/2014/12/TPST_IRL-300x191.png" alt="" width="300" height="191" /></a><br />
</em></p>
<p>Nous profitons de la sortie de FreeNAS 9.3, <a href="http://download.freenas.org/9.3/RELEASE/ReleaseNotes" target="_blank">qui introduit le support des primitives VAAI TPST et TPSTUN</a>, pour dissiper, une bonne fois pour toute on l&#8217;espère, le brouillard de bullshit récurant autour du thin on thin (en mode block).</p>
<p style="text-align: center;"><a href="http://en.wikipedia.org/wiki/MV_Blue_Marlin" target="_blank"><img class="aligncenter" src="http://files.hypervisor.fr/img/Thin_on_Thin/blue_marlin_overcommit.jpg" alt="" width="486" height="243" /></a></p>
<p style="text-align: center;">
<p style="text-align: justify;">Pour rappel, TPST(W) et TPSTUN, respectivement Thin Provisioning Space Threshold (Warning) et Thin Provisioning Stun, <a href="http://www.vmware.com/files/pdf/techpaper/VMware-vSphere-Storage-API-Array-Integration.pdf#page=6" target="_blank">ont été introduites avec vSphere 5.0</a> très probablement <strong>pour répondre aux énormes risques que représente le thin on thin</strong> aka stocker un vmdk thin sur un LUN thin (TPSTUN existait en 4.1 sous le nom <em>Out of Space Condition</em> mais uniquement via plugin constructeur).</p>
<p style="text-align: justify;">En effet, l&#8217;espace disponible d&#8217;un datastore VMFS est calculé de l&#8217;espace consommé par rapport à la taille du filesystem (SCSI oblige) contrairement à un datastore NFS qui interroge la baie/serveur pour le savoir. Ainsi, ESX n&#8217;a aucun moyen de savoir s&#8217;il reste assez ou plus (+) d&#8217;espace qu&#8217;il ne le croit. TPST (<a href="http://www.t10.org/lists/asc-num.htm#ASC_38" target="_blank">0&#215;6 0&#215;38 0&#215;7</a>) et TPSTUN (<a href="http://www.t10.org/lists/asc-num.htm#ASC_27" target="_blank">0&#215;7 0&#215;27 0&#215;7</a>) permettent à la baie/target de palier précisément à ce problème en envoyant aux clients/initiator des commandes SCSI lors du passage d&#8217;un certain seuil et/ou lorsqu&#8217;il n&#8217;y a plus d&#8217;espace du tout.</p>
<p style="text-align: justify;">Soyons clair : <strong>thin|thick on thin sans TPSTUN + saturation de la baie = corruption de VM</strong>. Vous pouvez facilement le vérifier en faisant un test et sachez que nous l&#8217;avons vécu en production avec nos confrères <a href="http://www.vmdude.fr/" target="_blank">vmdude</a> et dagnu. On était content d&#8217;avoir du (<span style="color: #339966;"><strong>veeam</strong></span>) backup&#8230;</p>
<p>Avant de rentrer dans le détail, voici un aperçu de notre vision des avantages et inconvénients des différentes combinaisons thin|thick on thin|thick :</p>
<p><img class="aligncenter" src="http://files.hypervisor.fr/img/Thin_on_Thin/radar.png" alt="" width="417" height="357" /></p>
<ul>
<li style="text-align: justify;"><strong>thick on thick</strong> : le top du top dans tous les domaines sauf celui le la rentabilité. Presqu&#8217;aucune intervention humaine n&#8217;est nécessaire excepté si les VM subissent des snapshot. Financièrement, c&#8217;est évidement la pire des solutions.</li>
<li style="text-align: justify;"><strong>thin on thick</strong> : le meilleur compromis. Seul l&#8217;espace touché est consommé (coté VMware) et en cas de datastore full seules les vm qui veulent grossir sont freezées.</li>
<li style="text-align: justify;"><strong>thin on thin</strong> : le rêve des admins SAN, le cauchemar des admins VMware. Cette solution nécessite un monitoring au top du sol au plafond et des tests de validation avant mise en production. Sans les primitives TPST et TPSTUN, cette solution est très proche de la roulette russe.</li>
<li style="text-align: justify;"><strong>thick on thin</strong> : les inconvénients du thin on thin sans les avantages. Vous pensez réserver l&#8217;espace en faisant du eagerzeroedthick mais en réalité la baie récupère les zéros et compresse le reste. Heureusement TPSTUN agit aussi sur les vmdk thick.</li>
</ul>
<p style="text-align: justify;">Concentrons nous sur le thin on thin puisque c&#8217;est la solution (assumée) qui tend à s&#8217;imposer officiellement (oui, avant vous &#8220;pensiez&#8221; faire du thin on thick). Tant que tout va bien, vous n&#8217;avez à craindre que <a href="http://www.hypervisor.fr/?p=5188" target="_blank">l&#8217;impact du thin des vmdk</a>. Mais quand l&#8217;espace vient à manquer dans la baie, on espère pour vous que ça se passe comme ça :</p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/Thin_on_Thin/ELK_TPSTx.png" target="_blank"><img class="aligncenter" src="http://files.hypervisor.fr/img/Thin_on_Thin/ELK_TPSTx_small.png" alt="" width="457" height="217" /></a></p>
<p style="text-align: justify;">Lorsque vous aurez atteint le seuil (parfois) configurable du TPST, disons 75%, vous aurez droit à du &#8220;0&#215;6 0&#215;38 0&#215;7&#8243; dans vos logs à une fréquence qui dépend de son implémentation dans le logiciel qui contrôle la baie. Ces messages génèrent des événements <strong>esx.problem.scsi.device.thinprov.atquota</strong> et <strong>vob.scsi.device.thinprov.atquota</strong> que vous retrouverez dans le vCenter (alarme possible) sous la forme suivante :</p>
<blockquote>
<p style="text-align: left;">Space utilization on thin-provisioned device naa.xyz exceeded configured threshold. Affected datastores (if any): &#8220;xyz&#8221;.</p>
</blockquote>
<p style="text-align: justify;">Si vous ne faites rien, vous finirez par atteindre le fond du panier et vous mangerez les fameux &#8220;0&#215;7 0&#215;27 0&#215;7&#8243;. A ce moment là, ESXi freezera n&#8217;importe qu&#8217;elle VM demandant plus (+) d&#8217;espace et vous aurez droit à ce genre de message :</p>
<blockquote>
<p style="text-align: left;">There is no more space for virtual disk xyz.vmdk. You might be able to continue this session by freeing disk space on the relevant volume, and clicking Retry. Click Cancel to terminate this session.</p>
</blockquote>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/Thin_on_Thin/TPSTx_vCenter.png" target="_blank"><img class="aligncenter" src="http://files.hypervisor.fr/img/Thin_on_Thin/TPSTx_vCenter_small.png" alt="" width="460" height="461" /></a></p>
<p style="text-align: justify;"><strong>A cet instant précis, la seule et unique bonne chose à faire est de libérer de l&#8217;espace sur la baie</strong>. Nous avons à peu prés tout essayé de l&#8217;UNMAP jusqu&#8217;au <a href="http://kb.vmware.com/kb/1010931" target="_blank">VMFS3.OpenWithoutJournal</a> sans obtenir de résultat stable. Si vous atteignez le &#8220;<strong>No space left on device</strong>&#8220;, la LUN est démontée et toutes vos VM passent en &#8220;inaccessible&#8221;. Et vous êtes dans la mer*e.</p>
<p style="text-align: justify;">Notre conseil : testez, essayez de remplir/vider/re-remplir un LUN avant de partir en production (on à déjà vu des cas où TPST remontait mal voir pas du tout), monitorez bien les différents messages et commandes SCSI. Mais surtout, ne partez pas du principe que la baie ne sera jamais full&#8230;</p>
<p style="text-align: justify;">Et pour ceux qui croiraient encore aux vertus du thick on thin, on vous laisse apprécier les joies d&#8217;un datastore full alors que le LUN ne l&#8217;est pas :</p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/Thin_on_Thin/TPSTUN_thick_on_thin_vsp.png" target="_blank"><img class="aligncenter" src="http://files.hypervisor.fr/img/Thin_on_Thin/TPSTUN_thick_on_thin_vsp_small.png" alt="" width="437" height="306" /></a></p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/Thin_on_Thin/TPSTUN_thick_on_thin_SAN.png" target="_blank"><img class="aligncenter" src="http://files.hypervisor.fr/img/Thin_on_Thin/TPSTUN_thick_on_thin_SAN_small.png" alt="" width="431" height="131" /></a></p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=5318</wfw:commentRss>
		<slash:comments>3</slash:comments>
		</item>
		<item>
		<title>PunchZero online</title>
		<link>http://www.hypervisor.fr/?p=5300</link>
		<comments>http://www.hypervisor.fr/?p=5300#comments</comments>
		<pubDate>Mon, 10 Nov 2014 11:02:37 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[HowTo]]></category>
		<category><![CDATA[Kb]]></category>
		<category><![CDATA[Tips & Tricks]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[SVMotion]]></category>
		<category><![CDATA[thin provisioning]]></category>
		<category><![CDATA[vmkfstools]]></category>
		<category><![CDATA[zeroing]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=5300</guid>
		<description><![CDATA[Depuis l&#8217;apparition du thin provisioning, la question de la récupération de l&#8217;espace disque libéré après allocation refait surface régulièrement.
Historiquement, il suffisait de &#8220;zeroer&#8221; l&#8217;espace libre inGuest et faire un storage vmotion vers n&#8217;importe quel autre datastore pour récupérer l&#8217;espace &#8220;zeroé&#8221; grâce au datamover fsdm qui zappe les zéros. Malheureusement, depuis l&#8217;apparition du datamover fs3dm dans [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">Depuis l&#8217;apparition du <a href="http://kb.vmware.com/kb/1005418" target="_blank">thin provisioning</a>, la question de la <strong>récupération de l&#8217;espace disque libéré après allocation</strong> refait surface régulièrement.</p>
<p style="text-align: justify;">Historiquement, il suffisait de &#8220;zeroer&#8221; l&#8217;espace libre inGuest et faire un storage vmotion vers n&#8217;importe quel autre datastore pour récupérer l&#8217;espace &#8220;zeroé&#8221; grâce au datamover fsdm qui zappe les zéros. Malheureusement, depuis l&#8217;apparition du datamover fs3dm dans vSphere 4.0 cet avantage a disparu <a href="http://www.yellow-bricks.com/2011/02/18/blocksize-impact" target="_blank">comme l&#8217;explique Duncan dans un vieux post de 2011</a>.</p>
<p><a href="http://www.yellow-bricks.com/2011/02/18/blocksize-impact"><img class="aligncenter" src="http://files.hypervisor.fr/img/PunchZero/vmware_datamover.jpg" alt="" width="193" height="240" /></a></p>
<p style="text-align: justify;">A cette époque, il était courant d&#8217;avoir des datastores configurés avec des blocksize différents ce qui permettait de contourner le problème facilement. Aujourd&#8217;hui, VMFS 5 a changé cette approche avec le blocksize unifié à 1M.</p>
<p style="text-align: justify;"><strong>Pour tricker comme avant et forcer fsdm à faire le boulot il faut une rupture technologique VMFS &lt;&gt; NFS ou jouer avec <strong>un paramètre caché de vsish</strong></strong> <a href="http://www.yellow-bricks.com/2011/02/18/blocksize-impact/#comment-22783" target="_blank">comme l&#8217;indique William Lam dans son commentaire</a> :</p>
<blockquote><p>Whether VMFS should handle data movement requests by leveraging FS3DM</p></blockquote>
<p style="text-align: justify;">Et depuis le temps que nous voulions le tester, nous sommes enfin tomber sur une VM <a href="http://www.hypervisor.fr/?p=4857" target="_blank">avec ~60Go à récupérer</a> dans un environnement VMFS5 only:</p>
<p><img class="aligncenter" src="http://files.hypervisor.fr/img/PunchZero/Zero_Thin_Diff.png" alt="" width="519" height="62" /></p>
<p style="text-align: justify;">Un coup de <a href="http://technet.microsoft.com/en-us/sysinternals/bb897443" target="_blank">sdelete -z</a> plus tard, on change le paramètre <strong>/config/VMFS3/intOpts/EnableDataMovement</strong> dans vsish et on lance un storage vmotion.</p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/PunchZero/Zero_sdelete.png" title="Zero_sdelete" rel="lightbox[5300]"><img class="alignnone size-thumbnail wp-image-5303" title="Zero_sdelete" src="http://www.hypervisor.fr/wp-content/uploads/2014/11/Zero_sdelete-150x150.png" alt="" width="150" height="150" /></a> <a href="http://files.hypervisor.fr/img/PunchZero/Zero_vsish_5.png" title="Zero_vsish_5" rel="lightbox[5300]"><img class="alignnone size-thumbnail wp-image-5304" title="Zero_vsish_5" src="http://www.hypervisor.fr/wp-content/uploads/2014/11/Zero_vsish_5-150x150.png" alt="" width="150" height="150" /></a></p>
<p>Au passage on remarque bien la phase de lecture sans écriture pendant le svmotion :</p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/PunchZero/Zero_svmotion_fsdm.png"><img class="aligncenter" src="http://files.hypervisor.fr/img/PunchZero/Zero_svmotion_fsdm.png" alt="" width="503" height="304" /></a></p>
<p style="text-align: justify;">Après la migration (<a href="http://kb.vmware.com/kb/2008877" target="_blank">qui vous permettra aussi de renommer officiellement les fichiers de votre VM</a>), la VM a maigri comme il faut :</p>
<p style="text-align: left;"><img class="aligncenter" src="http://files.hypervisor.fr/img/PunchZero/Zero_Tango_Before.png" alt="" width="363" height="292" /></p>
<p style="text-align: left;"><img class="aligncenter" src="http://files.hypervisor.fr/img/PunchZero/Zero_Tango_After.png" alt="" width="365" height="309" /></p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/PunchZero/Zero_Tango_Before_vmdk.png" title="Zero_Tango_Before_vmdk" rel="lightbox[5300]"><img class="alignnone size-thumbnail wp-image-5307" title="Zero_Tango_Before_vmdk" src="http://www.hypervisor.fr/wp-content/uploads/2014/11/Zero_Tango_Before_vmdk-150x150.png" alt="" width="150" height="150" /></a> <a href="http://files.hypervisor.fr/img/PunchZero/Zero_Tango_After_vmdk.png" title="Zero_Tango_After_vmdk" rel="lightbox[5300]"><img class="alignnone size-thumbnail wp-image-5308" title="Zero_Tango_After_vmdk" src="http://www.hypervisor.fr/wp-content/uploads/2014/11/Zero_Tango_After_vmdk-150x150.png" alt="" width="150" height="150" /></a></p>
<p style="text-align: left;"><a href="http://kb.vmware.com/kb/2004155" target="_blank">Pour ceux qui voudrait tout simplement le faire offline, il y a l&#8217;option <strong>&#8211;punchzero</strong> de vmkfstools.</a></p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=5300</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>Zero-G Storage vMotion</title>
		<link>http://www.hypervisor.fr/?p=5188</link>
		<comments>http://www.hypervisor.fr/?p=5188#comments</comments>
		<pubDate>Mon, 16 Jun 2014 10:01:54 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Kb]]></category>
		<category><![CDATA[Performance]]></category>
		<category><![CDATA[Test]]></category>
		<category><![CDATA[Tips & Tricks]]></category>
		<category><![CDATA[SVMotion]]></category>
		<category><![CDATA[thin provisioning]]></category>
		<category><![CDATA[VAAI]]></category>
		<category><![CDATA[zeroing]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=5188</guid>
		<description><![CDATA[Notre expérience de Storage vMotion remonte à l&#8217;arrivée d&#8217;ESX 3.0.1 (aka VI3) où DMotion permettait de migrer à chaud de VMFS 2 à VMFS 3 :
Follow the Migrate Virtual Machine Wizard to select the ESX 3.0.1 host and VMFS3 datastore destination. The Wizard validates the destination and moves the configuration files of the virtual machine [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">Notre expérience de Storage vMotion remonte à l&#8217;arrivée d&#8217;ESX 3.0.1 (<a href="https://www.vmware.com/support/pubs/vi_pubs.html" target="_blank">aka VI3</a>) où <a href="http://kb.vmware.com/kb/2874895" target="_blank">DMotion permettait de migrer à chaud de VMFS 2 à VMFS 3</a> :</p>
<blockquote><p>Follow the Migrate Virtual Machine Wizard to select the ESX 3.0.1 host and VMFS3 datastore destination. The Wizard validates the destination and <strong>moves the configuration files of the virtual machine and virtual disks to the new VMFS3 datastore</strong>.</p></blockquote>
<p><a href="http://www.vmworld.com/docs/DOC-2140"><img class="aligncenter" src="http://files.hypervisor.fr/img/svmotion_vaai/dmotion_vmworld_2007.png" alt="" width="395" height="296" /></a></p>
<p style="text-align: justify;">Depuis, nous avons étudié, testé, troubleshooté, et utilisé en production (<a href="http://www.hypervisor.fr/?p=3524" target="_blank">de manière parfois intensive</a>) cette fonctionnalité (<a href="http://www.hypervisor.fr/?p=3212" target="_blank">qui a beaucoup évolué depuis 2007</a>) devenue presque banale depuis SDRS.</p>
<p style="text-align: justify;">C&#8217;est au moment où nous croyons tout savoir du mécanisme que nous prenons une grande claque d&#8217;humilité lors d&#8217;une migration de plusieurs centaines de VM et que nous nous apercevons pour la première fois <strong>qu&#8217;un svmotion d&#8217;un vmdk thin (ou Lazy Zeroed) génère 2 fois plus d&#8217;écritures que de lectures</strong> :</p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/svmotion_vaai/svmotion_thin_rate.png" target="_blank"><img class="aligncenter" src="http://files.hypervisor.fr/img/svmotion_vaai/svmotion_thin_rate.png" alt="" width="503" height="304" /></a></p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/svmotion_vaai/svmotion_thin_iops.png" target="_blank"><img class="aligncenter" src="http://files.hypervisor.fr/img/svmotion_vaai/svmotion_thin_iops.png" alt="" width="503" height="304" /></a></p>
<p style="text-align: justify;">Nous n&#8217;avions jamais fait le rapprochement entre un svmotion et <a href="http://www.vmware.com/pdf/vsp_4_thinprov_perf.pdf" target="_blank">un sujet qui a longtemps fait polémique</a> :</p>
<blockquote>
<p style="text-align: left;"><strong>Because zeroing takes place at run-time for a thin disk, there can be some performance impact for write-intensive applications while writing data for the first time.</strong></p>
</blockquote>
<p style="text-align: justify;">Et le pire c&#8217;est qu&#8217;il nous a fallu un temps infini à l&#8217;échelle de Google pour tomber sur <a href="http://www.reddit.com/r/vmware/comments/1z1kt4/vmware_disk_performance_metrics_and_why_does_it/" target="_blank">un thread reddit où un VCDX explique tout d&#8217;une seule phrase</a> :</p>
<blockquote>
<p style="text-align: left;">It has to zero the block before writing the actual data.</p>
</blockquote>
<p style="text-align: justify;">Voila pourquoi <strong><strong>sans VAAI</strong> (ou au moins <a href="http://blogs.vmware.com/vsphere/2012/06/low-level-vaai-behaviour.html" target="_blank">la primitive WRITE_SAME</a>) vos svmotion (thin ou lazy zeroed) prendrons 2 fois plus de temps</strong> car 2 fois plus de données transiterons vers le stockage (<a href="http://www.yellow-bricks.com/2011/02/18/blocksize-impact/" target="_blank">entre 2 VMFS avec le même blocksize</a>).</p>
<p style="text-align: justify;">A titre de démonstration, voici un <a href="https://labs.vmware.com/flings/visualesxtop" target="_blank">visualEsxtop</a> de 2 svmotion consécutifs de <strong>la même VM </strong>entre 2 datastore, avec et sans le setting <a href="http://kb.vmware.com/kb/1021976" target="_blank">DataMover.HardwareAcceleratedInit</a> :</p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/svmotion_vaai/svmotion_thin_visualEsxtop.png" target="_blank"><img class="aligncenter" src="http://files.hypervisor.fr/img/svmotion_vaai/svmotion_thin_visualEsxtop_small.png" alt="" width="477" height="284" /></a></p>
<p style="text-align: left;">Ce n&#8217;est pas une défaillance de votre téléviseur, <strong>avec le zeroing offloadé à la baie c&#8217;est presque 2 fois plus rapide</strong> (ou 2 fois moins long si vous préférez&#8230;).</p>
<p style="text-align: left;">Ce comportement n&#8217;a évidement aucun rapport avec <a href="http://kb.vmware.com/kb/2004155" target="_blank">la &#8220;non-récupération&#8221; des zéros lors d&#8217;un svmotion</a>&#8230; Bien qu&#8217;il semble etre possible de <a href="http://www.yellow-bricks.com/2011/02/18/blocksize-impact/#comment-22783" target="_blank">le forcer d&#8217;une manière non supportée</a> !</p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=5188</wfw:commentRss>
		<slash:comments>6</slash:comments>
		</item>
		<item>
		<title>Thin provisioning : inGuest vs outGuest</title>
		<link>http://www.hypervisor.fr/?p=4857</link>
		<comments>http://www.hypervisor.fr/?p=4857#comments</comments>
		<pubDate>Tue, 03 Sep 2013 23:47:35 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Tips & Tricks]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[overcommit]]></category>
		<category><![CDATA[thin provisioning]]></category>
		<category><![CDATA[TRIM]]></category>
		<category><![CDATA[UNMAP]]></category>
		<category><![CDATA[vmdk]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=4857</guid>
		<description><![CDATA[Quand on joue un peu trop &#8220;le cowboy de l&#8217;overcommit&#8221;, on peut se retrouver dans une situation où les VM et donc les datastore sont pleins de vide : les filesystem des VM ont été rempli au moins une  fois mais ont été vidé depuis. Il y a plusieurs moyens de palier à cela [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">Quand on joue un peu trop &#8220;le cowboy de l&#8217;overcommit&#8221;, on peut se retrouver dans une situation où les VM et donc les datastore sont <strong>pleins de vide</strong> : les filesystem des VM ont été rempli au moins une  fois mais ont été vidé depuis. Il y a plusieurs moyens de palier à cela mais avant il est intéressant de savoir quelle volumétrie serait récupérable. Donc on a fait péter le oneliner :</p>
<pre class="brush: powershell; title: ; notranslate">Get-View -ViewType virtualmachine -Property Name, Summary, Config, Guest|?{!$_.snapshot -and $_.Guest.GuestFamily -eq &quot;windowsGuest&quot; -and $_.Guest.ToolsRunningStatus -eq &quot;guestToolsRunning&quot;}|?{!($_.Config.Hardware.Device|?{$_ -is [VMware.Vim.VirtualDisk]}|?{$_.Backing.ThinProvisioned}) -eq $false}|select name, @{n=&quot;GuestId&quot;;e={$_.Guest.GuestId}}, @{n=&quot;vmdkCommitted&quot;;e={[math]::round($_.Summary.Storage.Committed/1GB,1)}}, @{n=&quot;GuestCommitted&quot;;e={[math]::round(($_.Guest.Disk|%{$_.Capacity - $_.FreeSpace})/1GB,1)}}, @{n=&quot;ThinDiff&quot;;e={[math]::round((($_.Summary.Storage.Committed - (($_.Config.Hardware.MemoryMB*1MB - $_.Config.MemoryAllocation.Reservation) + $_.Config.InitialOverhead.InitialSwapReservation)) - ($_.Guest.Disk|%{$_.Capacity - $_.FreeSpace}))/1GB,1)}}|?{$_.ThinDiff -gt 20}|Out-GridView</pre>
<p style="text-align: justify;">Ce petit bout de script vous affichera un beau tableau des VM (windows uniquement &#8211; pour l&#8217;instant) dont la différence entre la taille commitée outGuest (vmdk) et inGuest (ntfs) est supérieure à 20Go.</p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/ThinDiff.png"><img class="aligncenter" src="http://files.hypervisor.fr/img/ThinDiff.png" alt="" width="441" height="494" /></a></p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=4857</wfw:commentRss>
		<slash:comments>4</slash:comments>
		</item>
		<item>
		<title>Ouverture de la chasse aux gigaoctets (en PSH)</title>
		<link>http://www.hypervisor.fr/?p=2051</link>
		<comments>http://www.hypervisor.fr/?p=2051#comments</comments>
		<pubDate>Fri, 07 May 2010 15:28:04 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Tips & Tricks]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[PowerCLI]]></category>
		<category><![CDATA[powershell]]></category>
		<category><![CDATA[scripting]]></category>
		<category><![CDATA[thin provisioning]]></category>
		<category><![CDATA[VMTools]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=2051</guid>
		<description><![CDATA[MAJ 22.03.2012 : une version plus rapide est disponible dans la rubrique One&#124;Liner.
Pour ceux qui veulent connaître les VM éligibles au thin provisioning (c&#8217;est à dire pleines de vide&#8230;), voici un petit one-liner qui cumule l&#8217;espace libre des VM (via les vmtools) et liste le top 20 :
get-vm &#124;?{($_.HardDisks&#124;?{$_.StorageFormat -eq &#8220;Thin&#8221;}&#124;Measure-Object).count -eq 0}&#124;?{$_.PowerState -eq &#8220;PoweredOn&#8221; [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;"><em><span style="color: #ff0000;">MAJ 22.03.2012 </span>: une version plus rapide est disponible dans <a href="http://www.hypervisor.fr/?page_id=3637" target="_blank">la rubrique One|Liner</a>.</em></p>
<p style="text-align: justify;">Pour ceux qui veulent connaître les VM éligibles au thin provisioning (c&#8217;est à dire pleines de vide&#8230;), voici un petit one-liner qui cumule l&#8217;espace libre des VM (via les vmtools) et liste le top 20 :</p>
<blockquote><p>get-vm |?{($_.HardDisks|?{$_.StorageFormat -eq &#8220;Thin&#8221;}|Measure-Object).count -eq 0}|?{$_.PowerState -eq &#8220;PoweredOn&#8221; -and $_.Guest.State -eq &#8220;Running&#8221; -and $_.Guest.Disks -ne $NULL} | Select -ExpandProperty Guest|select VMname, @{N=&#8221;Waste (GB)&#8221;;E={[math]::round(($_|select -ExpandProperty Disks| Select $_.Freespace|Measure-Object -sum -Property &#8220;Freespace&#8221;).sum/1GB,0)}}|sort &#8220;Waste (GB)&#8221; -Descending|select -first 20|ft -AutoSize</p></blockquote>
<p><a href="http://hypervisor.free.fr/img/waste.jpg" title="waste" rel="lightbox[2051]"><img class="aligncenter size-medium wp-image-2052" title="waste" src="http://www.hypervisor.fr/wp-content/uploads/2010/05/waste-300x215.jpg" alt="waste" width="300" height="215" /></a></p>
<p>/!\ <span style="color: #ff0000;">Le LVM n&#8217;est pas supporté par cette méthode (LV non listés) </span>/!\</p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=2051</wfw:commentRss>
		<slash:comments>1</slash:comments>
		</item>
	</channel>
</rss>
