<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Hypervisor.fr &#187; SSD</title>
	<atom:link href="http://www.hypervisor.fr/?feed=rss2&#038;tag=ssd" rel="self" type="application/rss+xml" />
	<link>http://www.hypervisor.fr</link>
	<description>French Bare-Metal weblog</description>
	<lastBuildDate>Wed, 26 Jun 2024 22:42:28 +0000</lastBuildDate>
	<generator>http://wordpress.org/?v=2.9.2</generator>
	<language>en</language>
	<sy:updatePeriod>hourly</sy:updatePeriod>
	<sy:updateFrequency>1</sy:updateFrequency>
			<item>
		<title>SSD + VAAI = TRIM ?</title>
		<link>http://www.hypervisor.fr/?p=4847</link>
		<comments>http://www.hypervisor.fr/?p=4847#comments</comments>
		<pubDate>Mon, 26 Aug 2013 07:26:16 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Hardware]]></category>
		<category><![CDATA[Performance]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[esxtop]]></category>
		<category><![CDATA[SSD]]></category>
		<category><![CDATA[TRIM]]></category>
		<category><![CDATA[VAAI]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=4847</guid>
		<description><![CDATA[Lors d&#8217;une séance de troubleshooting impliquant un petit tour d&#8217;esxtop, nous nous sommes aperçu que les stats VAAI d&#8217;un SSD attaché localement comportaient des valeurs non nulles. un check avec esxcli nous confirme la bizarrerie, les deux SSD attachés en SATA &#8220;supportent&#8221; certaines primitives VAAI :

Nous avons alors utiliser vmkfstools pour créer un vmdk eagerzeroedthick [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">Lors d&#8217;une séance de troubleshooting impliquant un petit tour d&#8217;esxtop, nous nous sommes aperçu que les stats VAAI d&#8217;un SSD attaché localement comportaient des valeurs non nulles. un check avec esxcli nous confirme la bizarrerie, les deux <strong>SSD attachés en SATA &#8220;supportent&#8221; certaines primitives VAAI</strong> :</p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/SSD_VAAI/ssd_vaai_esxcli.png" target="_blank"><img class="aligncenter" src="http://files.hypervisor.fr/img/SSD_VAAI/ssd_vaai_esxcli.png" alt="" width="490" height="272" /></a></p>
<p style="text-align: left;">Nous avons alors utiliser vmkfstools pour créer un vmdk <strong>eagerzeroedthick</strong> et constater l&#8217;offload de création de zero mais il semble que ce ne soit pas fonctionnel (<a href="https://communities.vmware.com/docs/DOC-11812" target="_blank">ZERO_F</a>) :</p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/SSD_VAAI/ssd_vaai_esxtop_zero.png" target="_blank"><img class="aligncenter" src="http://files.hypervisor.fr/img/SSD_VAAI/ssd_vaai_esxtop_zero.png" alt="" width="526" height="76" /></a></p>
<p style="text-align: left;">Par contre, le <strong>UNMAP</strong> (vmkfstools -y 99) semble bien fonctionner :</p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/SSD_VAAI/ssd_vaai_esxtop_unmap.png" target="_blank"><img class="aligncenter" src="http://files.hypervisor.fr/img/SSD_VAAI/ssd_vaai_esxtop_unmap.png" alt="" width="526" height="74" /></a></p>
<p style="text-align: left;">Nous profiterons du VMworld 2013 pour demander à <a href="https://twitter.com/VMwareStorage" target="_blank">Cormac Hogan</a> si cela signifie qu&#8217;ESXi supporte le <a href="http://en.wikipedia.org/wiki/TRIM" target="_blank"><strong>TRIM</strong></a>, entre autres&#8230;</p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=4847</wfw:commentRss>
		<slash:comments>3</slash:comments>
		</item>
		<item>
		<title>Host Cache I/O size</title>
		<link>http://www.hypervisor.fr/?p=4609</link>
		<comments>http://www.hypervisor.fr/?p=4609#comments</comments>
		<pubDate>Mon, 04 Feb 2013 08:52:04 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Hardware]]></category>
		<category><![CDATA[Performance]]></category>
		<category><![CDATA[Test]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[ZFS]]></category>
		<category><![CDATA[DTrace]]></category>
		<category><![CDATA[SSD]]></category>
		<category><![CDATA[swap]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=4609</guid>
		<description><![CDATA[En consultant l’excellent Performance Best Practices for VMware vSphere 5.1, nous avons voulu vérifier cette note :

Using swap to host cache and putting the regular swap file in SSD (as described below) are two different approaches for improving host swapping performance. Swap to host cache makes the best use of potentially limited SSD space while also being [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">En consultant l’excellent <a href="http://www.vmware.com/pdf/Perf_Best_Practices_vSphere5.1.pdf" target="_blank">Performance Best Practices for VMware vSphere 5.1</a>, nous avons voulu vérifier cette note :</p>
<blockquote>
<p style="text-align: justify;">Using swap to host cache and putting the regular swap file in SSD (as described below) are two different approaches for improving host swapping performance. Swap to host cache makes the best use of potentially limited SSD space while <strong>also being optimized for the large block sizes at which some SSDs work best</strong>.</p>
</blockquote>
<p style="text-align: justify;">Facile avec ZFS, <a href="https://github.com/kdavyd/dtrace/blob/master/zfsio.d">un petit coup de DTrace</a> et on peut rapidement voir la caractéristique des IO sur un datastore utilisé en tant qu&#8217;Host Cache (il nous aura fallu tout de même faire <a href="http://kb.vmware.com/kb/2013188" target="_blank">le coup du SSD</a>). Pour cela nous avons utilisé <strong>le boot d&#8217;une VM Windows 2008 R2 limité à 256Mo de RAM</strong> pour que le reste déborde sur la swap.</p>
<p style="text-align: justify;">D&#8217;abord, la taille des IO (en écriture) sur la swap classique :</p>
<p style="text-align: justify;"><img class="aligncenter" src="http://files.hypervisor.fr/img/hostcache/host_swap_writes.png" alt="" width="516" height="204" /></p>
<p style="text-align: justify;">C&#8217;est étonnamment distribué mais c&#8217;est largement du 4K. Voyons les IO (toujours en écriture) sur du Host Cache :</p>
<p style="text-align: justify;"><img class="aligncenter" src="http://files.hypervisor.fr/img/hostcache/host_cache_writes.png" alt="" width="521" height="216" /></p>
<p style="text-align: justify;">Pas de doutes, <strong>les IO font uniquement 128K</strong> (ceux de 512 bytes n&#8217;ont pas de rapport avec la swap) ce qui prouve l’intérêt d&#8217;activer la fonctionnalité plutôt que de simplement rediriger les vswp.</p>
<p style="text-align: justify;">Pour ceux qui se poserait la question, la taille des IO en lecture est la même dans les 2 cas : 4K</p>
<p style="text-align: justify;"><img class="aligncenter" src="http://files.hypervisor.fr/img/hostcache/host_swap_reads.png" alt="" width="518" height="227" /></p>
<p style="text-align: justify;"><img class="aligncenter" src="http://files.hypervisor.fr/img/hostcache/host_cache_reads.png" alt="" width="521" height="222" /></p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=4609</wfw:commentRss>
		<slash:comments>2</slash:comments>
		</item>
	</channel>
</rss>
