<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Hypervisor.fr &#187; VAAI</title>
	<atom:link href="http://www.hypervisor.fr/?feed=rss2&#038;tag=vaai" rel="self" type="application/rss+xml" />
	<link>http://www.hypervisor.fr</link>
	<description>French Bare-Metal weblog</description>
	<lastBuildDate>Wed, 26 Jun 2024 22:42:28 +0000</lastBuildDate>
	<generator>http://wordpress.org/?v=2.9.2</generator>
	<language>en</language>
	<sy:updatePeriod>hourly</sy:updatePeriod>
	<sy:updateFrequency>1</sy:updateFrequency>
			<item>
		<title>thin&#124;thick on thin&#124;thick chick chicky boom &#8211; MAJ</title>
		<link>http://www.hypervisor.fr/?p=5318</link>
		<comments>http://www.hypervisor.fr/?p=5318#comments</comments>
		<pubDate>Mon, 15 Dec 2014 09:33:44 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Hardware]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[ZFS]]></category>
		<category><![CDATA[Bullshit]]></category>
		<category><![CDATA[LUN]]></category>
		<category><![CDATA[overcommit]]></category>
		<category><![CDATA[thin provisioning]]></category>
		<category><![CDATA[VAAI]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=5318</guid>
		<description><![CDATA[MAJ 11/05/2017 : Et voila ce que ça donne en production :


Nous profitons de la sortie de FreeNAS 9.3, qui introduit le support des primitives VAAI TPST et TPSTUN, pour dissiper, une bonne fois pour toute on l&#8217;espère, le brouillard de bullshit récurant autour du thin on thin (en mode block).


Pour rappel, TPST(W) et TPSTUN, [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;"><em><span style="color: #ff0000;">MAJ 11/05/2017</span> : Et voila ce que ça donne en production :</em></p>
<p style="text-align: center;"><em><a href="http://files.hypervisor.fr/img/Thin_on_Thin/TPST_IRL.png" title="TPST_IRL" rel="lightbox[5318]"><img class="aligncenter size-medium wp-image-5813" title="TPST_IRL" src="http://www.hypervisor.fr/wp-content/uploads/2014/12/TPST_IRL-300x191.png" alt="" width="300" height="191" /></a><br />
</em></p>
<p>Nous profitons de la sortie de FreeNAS 9.3, <a href="http://download.freenas.org/9.3/RELEASE/ReleaseNotes" target="_blank">qui introduit le support des primitives VAAI TPST et TPSTUN</a>, pour dissiper, une bonne fois pour toute on l&#8217;espère, le brouillard de bullshit récurant autour du thin on thin (en mode block).</p>
<p style="text-align: center;"><a href="http://en.wikipedia.org/wiki/MV_Blue_Marlin" target="_blank"><img class="aligncenter" src="http://files.hypervisor.fr/img/Thin_on_Thin/blue_marlin_overcommit.jpg" alt="" width="486" height="243" /></a></p>
<p style="text-align: center;">
<p style="text-align: justify;">Pour rappel, TPST(W) et TPSTUN, respectivement Thin Provisioning Space Threshold (Warning) et Thin Provisioning Stun, <a href="http://www.vmware.com/files/pdf/techpaper/VMware-vSphere-Storage-API-Array-Integration.pdf#page=6" target="_blank">ont été introduites avec vSphere 5.0</a> très probablement <strong>pour répondre aux énormes risques que représente le thin on thin</strong> aka stocker un vmdk thin sur un LUN thin (TPSTUN existait en 4.1 sous le nom <em>Out of Space Condition</em> mais uniquement via plugin constructeur).</p>
<p style="text-align: justify;">En effet, l&#8217;espace disponible d&#8217;un datastore VMFS est calculé de l&#8217;espace consommé par rapport à la taille du filesystem (SCSI oblige) contrairement à un datastore NFS qui interroge la baie/serveur pour le savoir. Ainsi, ESX n&#8217;a aucun moyen de savoir s&#8217;il reste assez ou plus (+) d&#8217;espace qu&#8217;il ne le croit. TPST (<a href="http://www.t10.org/lists/asc-num.htm#ASC_38" target="_blank">0&#215;6 0&#215;38 0&#215;7</a>) et TPSTUN (<a href="http://www.t10.org/lists/asc-num.htm#ASC_27" target="_blank">0&#215;7 0&#215;27 0&#215;7</a>) permettent à la baie/target de palier précisément à ce problème en envoyant aux clients/initiator des commandes SCSI lors du passage d&#8217;un certain seuil et/ou lorsqu&#8217;il n&#8217;y a plus d&#8217;espace du tout.</p>
<p style="text-align: justify;">Soyons clair : <strong>thin|thick on thin sans TPSTUN + saturation de la baie = corruption de VM</strong>. Vous pouvez facilement le vérifier en faisant un test et sachez que nous l&#8217;avons vécu en production avec nos confrères <a href="http://www.vmdude.fr/" target="_blank">vmdude</a> et dagnu. On était content d&#8217;avoir du (<span style="color: #339966;"><strong>veeam</strong></span>) backup&#8230;</p>
<p>Avant de rentrer dans le détail, voici un aperçu de notre vision des avantages et inconvénients des différentes combinaisons thin|thick on thin|thick :</p>
<p><img class="aligncenter" src="http://files.hypervisor.fr/img/Thin_on_Thin/radar.png" alt="" width="417" height="357" /></p>
<ul>
<li style="text-align: justify;"><strong>thick on thick</strong> : le top du top dans tous les domaines sauf celui le la rentabilité. Presqu&#8217;aucune intervention humaine n&#8217;est nécessaire excepté si les VM subissent des snapshot. Financièrement, c&#8217;est évidement la pire des solutions.</li>
<li style="text-align: justify;"><strong>thin on thick</strong> : le meilleur compromis. Seul l&#8217;espace touché est consommé (coté VMware) et en cas de datastore full seules les vm qui veulent grossir sont freezées.</li>
<li style="text-align: justify;"><strong>thin on thin</strong> : le rêve des admins SAN, le cauchemar des admins VMware. Cette solution nécessite un monitoring au top du sol au plafond et des tests de validation avant mise en production. Sans les primitives TPST et TPSTUN, cette solution est très proche de la roulette russe.</li>
<li style="text-align: justify;"><strong>thick on thin</strong> : les inconvénients du thin on thin sans les avantages. Vous pensez réserver l&#8217;espace en faisant du eagerzeroedthick mais en réalité la baie récupère les zéros et compresse le reste. Heureusement TPSTUN agit aussi sur les vmdk thick.</li>
</ul>
<p style="text-align: justify;">Concentrons nous sur le thin on thin puisque c&#8217;est la solution (assumée) qui tend à s&#8217;imposer officiellement (oui, avant vous &#8220;pensiez&#8221; faire du thin on thick). Tant que tout va bien, vous n&#8217;avez à craindre que <a href="http://www.hypervisor.fr/?p=5188" target="_blank">l&#8217;impact du thin des vmdk</a>. Mais quand l&#8217;espace vient à manquer dans la baie, on espère pour vous que ça se passe comme ça :</p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/Thin_on_Thin/ELK_TPSTx.png" target="_blank"><img class="aligncenter" src="http://files.hypervisor.fr/img/Thin_on_Thin/ELK_TPSTx_small.png" alt="" width="457" height="217" /></a></p>
<p style="text-align: justify;">Lorsque vous aurez atteint le seuil (parfois) configurable du TPST, disons 75%, vous aurez droit à du &#8220;0&#215;6 0&#215;38 0&#215;7&#8243; dans vos logs à une fréquence qui dépend de son implémentation dans le logiciel qui contrôle la baie. Ces messages génèrent des événements <strong>esx.problem.scsi.device.thinprov.atquota</strong> et <strong>vob.scsi.device.thinprov.atquota</strong> que vous retrouverez dans le vCenter (alarme possible) sous la forme suivante :</p>
<blockquote>
<p style="text-align: left;">Space utilization on thin-provisioned device naa.xyz exceeded configured threshold. Affected datastores (if any): &#8220;xyz&#8221;.</p>
</blockquote>
<p style="text-align: justify;">Si vous ne faites rien, vous finirez par atteindre le fond du panier et vous mangerez les fameux &#8220;0&#215;7 0&#215;27 0&#215;7&#8243;. A ce moment là, ESXi freezera n&#8217;importe qu&#8217;elle VM demandant plus (+) d&#8217;espace et vous aurez droit à ce genre de message :</p>
<blockquote>
<p style="text-align: left;">There is no more space for virtual disk xyz.vmdk. You might be able to continue this session by freeing disk space on the relevant volume, and clicking Retry. Click Cancel to terminate this session.</p>
</blockquote>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/Thin_on_Thin/TPSTx_vCenter.png" target="_blank"><img class="aligncenter" src="http://files.hypervisor.fr/img/Thin_on_Thin/TPSTx_vCenter_small.png" alt="" width="460" height="461" /></a></p>
<p style="text-align: justify;"><strong>A cet instant précis, la seule et unique bonne chose à faire est de libérer de l&#8217;espace sur la baie</strong>. Nous avons à peu prés tout essayé de l&#8217;UNMAP jusqu&#8217;au <a href="http://kb.vmware.com/kb/1010931" target="_blank">VMFS3.OpenWithoutJournal</a> sans obtenir de résultat stable. Si vous atteignez le &#8220;<strong>No space left on device</strong>&#8220;, la LUN est démontée et toutes vos VM passent en &#8220;inaccessible&#8221;. Et vous êtes dans la mer*e.</p>
<p style="text-align: justify;">Notre conseil : testez, essayez de remplir/vider/re-remplir un LUN avant de partir en production (on à déjà vu des cas où TPST remontait mal voir pas du tout), monitorez bien les différents messages et commandes SCSI. Mais surtout, ne partez pas du principe que la baie ne sera jamais full&#8230;</p>
<p style="text-align: justify;">Et pour ceux qui croiraient encore aux vertus du thick on thin, on vous laisse apprécier les joies d&#8217;un datastore full alors que le LUN ne l&#8217;est pas :</p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/Thin_on_Thin/TPSTUN_thick_on_thin_vsp.png" target="_blank"><img class="aligncenter" src="http://files.hypervisor.fr/img/Thin_on_Thin/TPSTUN_thick_on_thin_vsp_small.png" alt="" width="437" height="306" /></a></p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/Thin_on_Thin/TPSTUN_thick_on_thin_SAN.png" target="_blank"><img class="aligncenter" src="http://files.hypervisor.fr/img/Thin_on_Thin/TPSTUN_thick_on_thin_SAN_small.png" alt="" width="431" height="131" /></a></p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=5318</wfw:commentRss>
		<slash:comments>3</slash:comments>
		</item>
		<item>
		<title>Zero-G Storage vMotion</title>
		<link>http://www.hypervisor.fr/?p=5188</link>
		<comments>http://www.hypervisor.fr/?p=5188#comments</comments>
		<pubDate>Mon, 16 Jun 2014 10:01:54 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Kb]]></category>
		<category><![CDATA[Performance]]></category>
		<category><![CDATA[Test]]></category>
		<category><![CDATA[Tips & Tricks]]></category>
		<category><![CDATA[SVMotion]]></category>
		<category><![CDATA[thin provisioning]]></category>
		<category><![CDATA[VAAI]]></category>
		<category><![CDATA[zeroing]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=5188</guid>
		<description><![CDATA[Notre expérience de Storage vMotion remonte à l&#8217;arrivée d&#8217;ESX 3.0.1 (aka VI3) où DMotion permettait de migrer à chaud de VMFS 2 à VMFS 3 :
Follow the Migrate Virtual Machine Wizard to select the ESX 3.0.1 host and VMFS3 datastore destination. The Wizard validates the destination and moves the configuration files of the virtual machine [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">Notre expérience de Storage vMotion remonte à l&#8217;arrivée d&#8217;ESX 3.0.1 (<a href="https://www.vmware.com/support/pubs/vi_pubs.html" target="_blank">aka VI3</a>) où <a href="http://kb.vmware.com/kb/2874895" target="_blank">DMotion permettait de migrer à chaud de VMFS 2 à VMFS 3</a> :</p>
<blockquote><p>Follow the Migrate Virtual Machine Wizard to select the ESX 3.0.1 host and VMFS3 datastore destination. The Wizard validates the destination and <strong>moves the configuration files of the virtual machine and virtual disks to the new VMFS3 datastore</strong>.</p></blockquote>
<p><a href="http://www.vmworld.com/docs/DOC-2140"><img class="aligncenter" src="http://files.hypervisor.fr/img/svmotion_vaai/dmotion_vmworld_2007.png" alt="" width="395" height="296" /></a></p>
<p style="text-align: justify;">Depuis, nous avons étudié, testé, troubleshooté, et utilisé en production (<a href="http://www.hypervisor.fr/?p=3524" target="_blank">de manière parfois intensive</a>) cette fonctionnalité (<a href="http://www.hypervisor.fr/?p=3212" target="_blank">qui a beaucoup évolué depuis 2007</a>) devenue presque banale depuis SDRS.</p>
<p style="text-align: justify;">C&#8217;est au moment où nous croyons tout savoir du mécanisme que nous prenons une grande claque d&#8217;humilité lors d&#8217;une migration de plusieurs centaines de VM et que nous nous apercevons pour la première fois <strong>qu&#8217;un svmotion d&#8217;un vmdk thin (ou Lazy Zeroed) génère 2 fois plus d&#8217;écritures que de lectures</strong> :</p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/svmotion_vaai/svmotion_thin_rate.png" target="_blank"><img class="aligncenter" src="http://files.hypervisor.fr/img/svmotion_vaai/svmotion_thin_rate.png" alt="" width="503" height="304" /></a></p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/svmotion_vaai/svmotion_thin_iops.png" target="_blank"><img class="aligncenter" src="http://files.hypervisor.fr/img/svmotion_vaai/svmotion_thin_iops.png" alt="" width="503" height="304" /></a></p>
<p style="text-align: justify;">Nous n&#8217;avions jamais fait le rapprochement entre un svmotion et <a href="http://www.vmware.com/pdf/vsp_4_thinprov_perf.pdf" target="_blank">un sujet qui a longtemps fait polémique</a> :</p>
<blockquote>
<p style="text-align: left;"><strong>Because zeroing takes place at run-time for a thin disk, there can be some performance impact for write-intensive applications while writing data for the first time.</strong></p>
</blockquote>
<p style="text-align: justify;">Et le pire c&#8217;est qu&#8217;il nous a fallu un temps infini à l&#8217;échelle de Google pour tomber sur <a href="http://www.reddit.com/r/vmware/comments/1z1kt4/vmware_disk_performance_metrics_and_why_does_it/" target="_blank">un thread reddit où un VCDX explique tout d&#8217;une seule phrase</a> :</p>
<blockquote>
<p style="text-align: left;">It has to zero the block before writing the actual data.</p>
</blockquote>
<p style="text-align: justify;">Voila pourquoi <strong><strong>sans VAAI</strong> (ou au moins <a href="http://blogs.vmware.com/vsphere/2012/06/low-level-vaai-behaviour.html" target="_blank">la primitive WRITE_SAME</a>) vos svmotion (thin ou lazy zeroed) prendrons 2 fois plus de temps</strong> car 2 fois plus de données transiterons vers le stockage (<a href="http://www.yellow-bricks.com/2011/02/18/blocksize-impact/" target="_blank">entre 2 VMFS avec le même blocksize</a>).</p>
<p style="text-align: justify;">A titre de démonstration, voici un <a href="https://labs.vmware.com/flings/visualesxtop" target="_blank">visualEsxtop</a> de 2 svmotion consécutifs de <strong>la même VM </strong>entre 2 datastore, avec et sans le setting <a href="http://kb.vmware.com/kb/1021976" target="_blank">DataMover.HardwareAcceleratedInit</a> :</p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/svmotion_vaai/svmotion_thin_visualEsxtop.png" target="_blank"><img class="aligncenter" src="http://files.hypervisor.fr/img/svmotion_vaai/svmotion_thin_visualEsxtop_small.png" alt="" width="477" height="284" /></a></p>
<p style="text-align: left;">Ce n&#8217;est pas une défaillance de votre téléviseur, <strong>avec le zeroing offloadé à la baie c&#8217;est presque 2 fois plus rapide</strong> (ou 2 fois moins long si vous préférez&#8230;).</p>
<p style="text-align: left;">Ce comportement n&#8217;a évidement aucun rapport avec <a href="http://kb.vmware.com/kb/2004155" target="_blank">la &#8220;non-récupération&#8221; des zéros lors d&#8217;un svmotion</a>&#8230; Bien qu&#8217;il semble etre possible de <a href="http://www.yellow-bricks.com/2011/02/18/blocksize-impact/#comment-22783" target="_blank">le forcer d&#8217;une manière non supportée</a> !</p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=5188</wfw:commentRss>
		<slash:comments>6</slash:comments>
		</item>
		<item>
		<title>SSD + VAAI = TRIM ?</title>
		<link>http://www.hypervisor.fr/?p=4847</link>
		<comments>http://www.hypervisor.fr/?p=4847#comments</comments>
		<pubDate>Mon, 26 Aug 2013 07:26:16 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Hardware]]></category>
		<category><![CDATA[Performance]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[esxtop]]></category>
		<category><![CDATA[SSD]]></category>
		<category><![CDATA[TRIM]]></category>
		<category><![CDATA[VAAI]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=4847</guid>
		<description><![CDATA[Lors d&#8217;une séance de troubleshooting impliquant un petit tour d&#8217;esxtop, nous nous sommes aperçu que les stats VAAI d&#8217;un SSD attaché localement comportaient des valeurs non nulles. un check avec esxcli nous confirme la bizarrerie, les deux SSD attachés en SATA &#8220;supportent&#8221; certaines primitives VAAI :

Nous avons alors utiliser vmkfstools pour créer un vmdk eagerzeroedthick [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">Lors d&#8217;une séance de troubleshooting impliquant un petit tour d&#8217;esxtop, nous nous sommes aperçu que les stats VAAI d&#8217;un SSD attaché localement comportaient des valeurs non nulles. un check avec esxcli nous confirme la bizarrerie, les deux <strong>SSD attachés en SATA &#8220;supportent&#8221; certaines primitives VAAI</strong> :</p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/SSD_VAAI/ssd_vaai_esxcli.png" target="_blank"><img class="aligncenter" src="http://files.hypervisor.fr/img/SSD_VAAI/ssd_vaai_esxcli.png" alt="" width="490" height="272" /></a></p>
<p style="text-align: left;">Nous avons alors utiliser vmkfstools pour créer un vmdk <strong>eagerzeroedthick</strong> et constater l&#8217;offload de création de zero mais il semble que ce ne soit pas fonctionnel (<a href="https://communities.vmware.com/docs/DOC-11812" target="_blank">ZERO_F</a>) :</p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/SSD_VAAI/ssd_vaai_esxtop_zero.png" target="_blank"><img class="aligncenter" src="http://files.hypervisor.fr/img/SSD_VAAI/ssd_vaai_esxtop_zero.png" alt="" width="526" height="76" /></a></p>
<p style="text-align: left;">Par contre, le <strong>UNMAP</strong> (vmkfstools -y 99) semble bien fonctionner :</p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/SSD_VAAI/ssd_vaai_esxtop_unmap.png" target="_blank"><img class="aligncenter" src="http://files.hypervisor.fr/img/SSD_VAAI/ssd_vaai_esxtop_unmap.png" alt="" width="526" height="74" /></a></p>
<p style="text-align: left;">Nous profiterons du VMworld 2013 pour demander à <a href="https://twitter.com/VMwareStorage" target="_blank">Cormac Hogan</a> si cela signifie qu&#8217;ESXi supporte le <a href="http://en.wikipedia.org/wiki/TRIM" target="_blank"><strong>TRIM</strong></a>, entre autres&#8230;</p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=4847</wfw:commentRss>
		<slash:comments>3</slash:comments>
		</item>
		<item>
		<title>Snap Me If You Can</title>
		<link>http://www.hypervisor.fr/?p=3588</link>
		<comments>http://www.hypervisor.fr/?p=3588#comments</comments>
		<pubDate>Sun, 05 Feb 2012 23:44:30 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Tips & Tricks]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[ZFS]]></category>
		<category><![CDATA[PowerCLI]]></category>
		<category><![CDATA[powershell]]></category>
		<category><![CDATA[scripting]]></category>
		<category><![CDATA[snapshot]]></category>
		<category><![CDATA[VAAI]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=3588</guid>
		<description><![CDATA[En cherchant un paramètre dans la hidden_vmx_params liste extraite par William Lam, nous sommes tombé sur une option bien sympathique pour ceux qui aiment contrôler la situation ou qui détestent les mauvaises surprises en matière de snapshot : snapshot.minFreeSpace
Disons que vous souhaitez limiter la possibilité de faire un snapshot sur vos vm uniquement s&#8217;il y a suffisamment d&#8217;espace sur les datastore, vous utiliseriez notre beau [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">En cherchant un paramètre dans <a href="http://download.virtuallyghetto.com/hidden_vmx_params.html" target="_blank">la hidden_vmx_params liste extraite par William Lam</a>, nous sommes tombé sur une option bien sympathique pour ceux qui aiment contrôler la situation ou qui détestent les mauvaises surprises en matière de snapshot : <strong><a href="http://faq.sanbarrow.com/index.php?solution_id=1060" target="_blank">snapshot.minFreeSpace</a></strong></p>
<p style="text-align: justify;">Disons que vous souhaitez <strong>limiter la possibilité de faire un snapshot sur vos vm uniquement s&#8217;il y a suffisamment d&#8217;espace sur les datastore</strong>, vous utiliseriez notre beau petit one-liner fait main :</p>
<pre class="brush: powershell; title: ; notranslate">Get-View -ViewType virtualmachine|?{-not $_.Config.Template -and $_.Runtime.ConnectionState -eq &quot;connected&quot;}|?{($_.Config.Hardware.Device|?{$_.GetType().Name -eq&quot;VirtualDisk&quot;}|%{$_.Backing.FileName.split(&quot;[]&quot;)[1]}|sort -Unique|measure-object).count -eq 1}|%{$_.ReconfigVM((New-Object VMware.Vim.VirtualMachineConfigSpec -Property @{extraconfig=@((New-Object VMware.Vim.optionvalue -Property @{Key=&quot;snapshot.minFreeSpace&quot;; Value=&quot;$($($_.Config.Hardware.Device|?{$_.GetType().Name -eq&quot;VirtualDisk&quot;}|%{$_.CapacityInKB*1KB}|measure-object -sum).sum)&quot;}))}))}</pre>
<p style="text-align: justify;">Ce script fixe le snapshot.minFreeSpace à <strong>la somme de la taille des vmdk</strong> (taille max d&#8217;un snapshot) et se limite aux vm dont les <strong>vmdk</strong> résident sur <strong>un seul et unique datastore</strong>.</p>
<p style="text-align: justify;">Mais avant de passer ce script, peut être voudriez vous vérifier que vous n&#8217;avez pas des vm déjà dans cette situation ? Cet autre petit one-liner vous donnera la liste de chaque vm dont la taille totale est supérieure à l&#8217;espace libre du datastore où elle réside :</p>
<pre class="brush: powershell; title: ; notranslate">Get-View -ViewType virtualmachine|?{-not $_.Config.Template}|?{($_.Config.Hardware.Device|?{$_.GetType().Name -eq&quot;VirtualDisk&quot;}|%{$_.Backing.FileName.split(&quot;[]&quot;)[1]}|sort -Unique|measure-object).count -eq 1}|?{($_.Config.Hardware.Device|?{$_.GetType().Name -eq&quot;VirtualDisk&quot;}|%{$_.CapacityInKB*1KB}|measure-object -sum).sum -gt ((get-view -viewtype datastore -property name,summary -filter @{&quot;name&quot; = ($_.Config.Hardware.Device|?{$_.GetType().Name -eq&quot;VirtualDisk&quot;}|%{$_.Backing.FileName.split(&quot;[]&quot;)[1]}|sort -Unique)}).Summary.FreeSpace)}|select name</pre>
<p><img class="aligncenter" src="http://files.hypervisor.fr/img/snapshot.minFreeSpace.png" alt="" width="311" height="39" /></p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=3588</wfw:commentRss>
		<slash:comments>2</slash:comments>
		</item>
		<item>
		<title>VAAIE-AIE-AIE &#8211; MAJ</title>
		<link>http://www.hypervisor.fr/?p=3579</link>
		<comments>http://www.hypervisor.fr/?p=3579#comments</comments>
		<pubDate>Wed, 01 Feb 2012 00:24:39 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[News]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[ZFS]]></category>
		<category><![CDATA[nexenta]]></category>
		<category><![CDATA[VAAI]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=3579</guid>
		<description><![CDATA[MAJ 28/05/2012 : La version 3.1.3 corrige le bug de l&#8217;ATS mais il est toujours fortement conseillé de désactiver l&#8217;UNMAP (le paramètre &#8220;/VMFS3/EnableBlockDelete&#8221; est d&#8217;ailleurs désactivé dans ESXi 5.0 U1 même en cas d&#8217;update).
Voila maintenant 1 mois que nous participons à des tests avec les gens de chez nexenta concernant un problème lié à la routine Atomic Test &#38; [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;"><em><span style="color: #ff0000;">MAJ 28/05/2012</span> : <a href="http://info.nexenta.com/rs/nexenta/images/doc_3.1_release_notes_3.1.3.pdf" target="_blank">La version 3.1.3 corrige le bug de l&#8217;ATS</a> mais il est toujours fortement conseillé de désactiver l&#8217;UNMAP (le paramètre &#8220;/VMFS3/EnableBlockDelete&#8221; est d&#8217;ailleurs désactivé dans ESXi 5.0 U1 même en cas d&#8217;update).</em></p>
<p style="text-align: justify;">Voila maintenant 1 mois que nous participons à des tests avec les gens de chez nexenta concernant <a href="http://www.nexentastor.org/boards/1/topics/3273">un problème lié à la routine Atomic Test &amp; Set (ATS) de VAAI</a>. Le symptôme est assez radical : lors de certaines opérations courantes (svmotion par ex.), la LUN reste lockée donc inaccessible jusqu’à ce qu&#8217;elle soit &#8220;re-maskée&#8221; ou que le serveur nexenta soit rebooté.</p>
<p style="text-align: justify;">Jusqu&#8217;à ce que le bug soit corrigé, <strong>l&#8217;option la plus rapide est de <a href="http://kb.vmware.com/kb/1033665" target="_blank">désactiver l&#8217;ATS</a></strong>. L&#8217;idéal c&#8217;est un petit one-liner powershell qui le fait sur tous vos ESX :</p>

<div class="wp_syntax"><div class="code"><pre class="powershell" style="font-family:monospace;">Get<span style="color: pink;">-</span>VMHost<span style="color: pink;">|</span>Set<span style="color: pink;">-</span>VMHostAdvancedConfiguration <span style="color: #008080; font-style: italic;">-name</span> VMFS3.HardwareAcceleratedLocking <span style="color: #008080; font-style: italic;">-Value</span> <span style="color: #804000;">0</span></pre></div></div>

<p style="text-align: justify;"><strong><span style="color: #ff0000;">Attention aux LUN en VMFS5 natives qui ont été créées avec VAAI actif car elles sont tagguées &#8220;ATS-only&#8221;, ce qui veux dire qu&#8217;il n&#8217;est pas possible de les réserver en SCSI-2 classique. Pour désactiver ce mode, il faut utiliser la commande <a href="http://pubs.vmware.com/vsphere-50/topic/com.vmware.vsphere.storage.doc_50/GUID-6887003D-2322-49AC-A56C-7AFE7350DB5D.html?resultof=%22%63%6f%6e%66%69%67%41%54%53%4f%6e%6c%79%22%20%22%63%6f%6e%66%69%67%61%74%73%6f%6e%6c%69%22%20" target="_blank">vmkfstools avec le paramètre &#8221;configATSOnly</a>&#8220;.</span></strong></p>
<p style="text-align: justify;">Nous tenons à préciser que ce problème n&#8217;est pas lié à <a href="http://kb.vmware.com/kb/2007427" target="_blank">celui du UNMAP</a>.</p>
<p style="text-align: center;"><a href="http://virtualgeek.typepad.com/.a/6a00e552e53bd288330162fde47652970d-pi"><img class="aligncenter" src="http://virtualgeek.typepad.com/.a/6a00e552e53bd288330162fde47652970d-pi" alt="" width="491" height="369" /></a></p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=3579</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>NexentaStor 3.1.1 : VAAI gratis</title>
		<link>http://www.hypervisor.fr/?p=3239</link>
		<comments>http://www.hypervisor.fr/?p=3239#comments</comments>
		<pubDate>Sat, 20 Aug 2011 00:30:47 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[News]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[ZFS]]></category>
		<category><![CDATA[nexenta]]></category>
		<category><![CDATA[VAAI]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=3239</guid>
		<description><![CDATA[Après un faux départ, NexentaStor 3.1 est enfin (re)disponible ! En plus des quelques nouvelles features et corrections de bug, la grosse bonne nouvelle c&#8217;est le support de VAAI pour ESXi 5+ (contrairement à ce qui avait été annoncé) y compris pour la version Community Edition. Ce qui en fait la toute première et seule solution [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">Après <a href="http://www.nexentastor.org/boards/2/topics/2955#message-2960" target="_blank">un faux départ</a>, NexentaStor 3.1 est enfin (re)disponible ! En plus <a href="http://www.nexenta.com/corp/images/stories/pdfs/release_notes-3_1_1-v3.pdf" target="_blank">des quelques nouvelles features et corrections de bug</a>, la grosse bonne nouvelle c&#8217;est le support de <a href="http://virtualgeek.typepad.com/.a/6a00e552e53bd288330133f2408629970b-pi" target="_blank">VAAI</a> pour ESXi 5+ (<a href="http://www.nexenta.com/corp/images/stories/pdfs/release_notes-3_1_1-v3.pdf" target="_blank">contrairement à ce qui avait été annoncé</a>) <strong>y compris pour la version Community Edition</strong>. Ce qui en fait la toute première et seule solution VAAI gratuite, pour le mode block uniquement. Voici la liste des routines VAAI supportées :</p>
<ul>
<li>SCSI Write Same (zeroing)</li>
<li>SCSI ATS (lock only the specific region on the LUN)</li>
<li>SCSI Block Copy (instruct the array to perform a block copy)</li>
<li>SCSI Unmap (<strong>return freed blocks in a zvol</strong>)</li>
</ul>
<p style="text-align: justify;">Je vous laisse imaginer l’intérêt d&#8217;une solution gratuite (jusqu&#8217;à 18To raw max pour la CE) supportant VAAI et reposant sur ZFS (<a href="http://en.wikipedia.org/wiki/ZFS" target="_blank">ARC, L2ARC, in-line deduplication, in-line compression, snapshots and copy-on-write clones, RAID-Z, native NFSv4 ACLs, continuous integrity checking and automatic repair, &#8230;</a>) face à toutes les appliances payantes du marché.</p>
<p>Et juste pour le plaisir des yeux :</p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/nexenta_3.1.1.png" title="nexenta_3.1.1" rel="lightbox[3239]"><img class="aligncenter size-full wp-image-3240" title="nexenta_3.1.1" src="http://www.hypervisor.fr/wp-content/uploads/2011/08/nexenta_3.1.1.png" alt="" width="539" height="260" /></a></p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=3239</wfw:commentRss>
		<slash:comments>14</slash:comments>
		</item>
	</channel>
</rss>
