<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Hypervisor.fr &#187; ZFS</title>
	<atom:link href="http://www.hypervisor.fr/?feed=rss2&#038;tag=zfs" rel="self" type="application/rss+xml" />
	<link>http://www.hypervisor.fr</link>
	<description>French Bare-Metal weblog</description>
	<lastBuildDate>Wed, 26 Jun 2024 22:42:28 +0000</lastBuildDate>
	<generator>http://wordpress.org/?v=2.9.2</generator>
	<language>en</language>
	<sy:updatePeriod>hourly</sy:updatePeriod>
	<sy:updateFrequency>1</sy:updateFrequency>
			<item>
		<title>Installer SABnzbd sur NexentaStor 3.1</title>
		<link>http://www.hypervisor.fr/?p=4645</link>
		<comments>http://www.hypervisor.fr/?p=4645#comments</comments>
		<pubDate>Tue, 09 Apr 2013 07:25:16 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[News]]></category>
		<category><![CDATA[ZFS]]></category>
		<category><![CDATA[Hadopi]]></category>
		<category><![CDATA[nexenta]]></category>
		<category><![CDATA[nntp]]></category>
		<category><![CDATA[nzb]]></category>
		<category><![CDATA[warez]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=4645</guid>
		<description><![CDATA[MAJ 13.04.2013 : Nous avons oublié de vous recommander de faire un snapshot ZFS du syspool avant de commencer l&#8217;installation. Voila, c&#8217;est fait.
Nous profitons de la récente disponibilité de NexentaStor 3.1.4 (toujours pas disponible en version CE) pour vous faire partager le modus operandi de l&#8217;installation de SABnzbd sur NexentaStor 3.1 qui nous a été [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;"><em><span style="color: #ff0000;">MAJ 13.04.2013</span><em> : Nous avons oublié de vous recommander de faire un snapshot ZFS du syspool avant de commencer l&#8217;installation. Voila, c&#8217;est fait.</em></em></p>
<p style="text-align: justify;">Nous profitons de <a href="https://twitter.com/nexenta/status/321110321546792960" target="_blank">la récente disponibilité de NexentaStor 3.1.4</a> (toujours pas disponible en version CE) pour vous faire partager le modus operandi de l&#8217;installation de SABnzbd sur NexentaStor 3.1 qui nous a été transmis par <a href="http://nexentastor.org/boards/12/topics/7912#message-8054" target="_blank">Brenn Oosterbaan</a> et que nous n&#8217;avons que très peu modifié pour le rendre utilisable par (à peu près) tous. Thanks Breen!</p>
<p style="text-align: center;"><a href="http://sabnzbd.org/" target="_blank"><img class="aligncenter" src="http://sabnzbd.org/resources/landing/sabnzbd_logo.png" alt="" width="245" height="67" /></a></p>
<p style="text-align: justify;">Breen nous a aussi fourni le fichier xml permettant de configurer SABnzbd en tant que service mais <strong>nous avons été contraint de forcer l&#8217;adresse et le port d’écoute dans la commande de démarrage (0.0.0.0:8080)</strong> ce qui rend toute modification (lié au host:port d&#8217;écoute) dans l&#8217;interface de configuration de SABnzbd non persistante. Si vous avez l&#8217;intention de changer le port, faites le dans le fichier sabnzbd.xml fourni et relancer la commande d&#8217;import.</p>
<p style="text-align: justify;">Une fois l&#8217;installation terminée et le service démarré, vous devriez observer quelque chose de similaire à cela dans le log du service :</p>
<pre class="brush: bash; title: ; notranslate">
_yenc module... found!
par2 binary... found (/usr/local/bin/par2)
unrar binary... found (/usr/bin/unrar)
unzip binary... found (/usr/bin/unzip)
nice binary... found (/usr/bin/nice)
ionice binary... NOT found!
pyOpenSSL... found (True)
Starting web-interface on 0.0.0.0:8080
ENGINE Bus STARTING
ENGINE Started monitor thread '_TimeoutMonitor'.
ENGINE Serving on 0.0.0.0:8080
ENGINE Bus STARTED
Starting SABnzbd.py-0.7.11
Dirscanner starting up
URLGrabber starting up
</pre>
<p>Comme toujours il faudra passer par<a href="http://info.nexenta.com/rs/nexenta/images/doc_3.1_nexentastor-userguide-3-1.pdf#page=26" target="_blank"> le fameux mode &#8220;expert&#8221;</a> pour accéder au shell. <a href="http://youtu.be/BUmVuxX0ulk?t=1m15s" target="_blank">Et gare à la Hadopi !</a></p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/zip/sabzfs/SABnzbd_0.7.11_NexentaStor.png" target="_blank"><img class="aligncenter" src="http://files.hypervisor.fr/zip/sabzfs/SABnzbd_0.7.11_NexentaStor.png" alt="" width="530" height="311" /></a></p>
<div class="wp-caption aligncenter" style="width: 110px"><a href="http://files.hypervisor.fr/zip/sabzfs/install.txt"><img class="            " title="install.txt" src="http://files.hypervisor.fr/img/super_mario_piranha_plant.png" alt="" width="100" height="100" /></a><p class="wp-caption-text">install.txt</p></div>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=4645</wfw:commentRss>
		<slash:comments>1</slash:comments>
		</item>
		<item>
		<title>VMworld 2011 : le feedback de Nexenta &#8211; MAJ</title>
		<link>http://www.hypervisor.fr/?p=3915</link>
		<comments>http://www.hypervisor.fr/?p=3915#comments</comments>
		<pubDate>Wed, 04 Jul 2012 16:40:22 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Hardware]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[ZFS]]></category>
		<category><![CDATA[DTrace]]></category>
		<category><![CDATA[nexenta]]></category>
		<category><![CDATA[vmworld]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=3915</guid>
		<description><![CDATA[MAJ 24.03.2013 : Voici le compte rendu officiel de l&#8217;experience.
Durant l&#8217;OpenStorage Summit EMEA 2012, Andy Bennett raconte comment VMware a sollicité Nexenta pour pondre une solution de stockage comparable aux Vblocks d&#8217;EMC et FlexPods de NetApp mais à un coût radicalement inférieur (l&#8217;objectif était le meilleur prix au Téraoctet) et comment cette solution s&#8217;est retrouvée à héberger une partie des &#8220;Hands on lab&#8221; des 2 VMworld 2011 [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;"><em><span style="color: #ff0000;">MAJ 24.03.2013</span> : <a href="http://info.nexenta.com/rs/nexenta/images/data_sheet_vmworld_hands_on_lab.pdf" target="_blank">Voici le compte rendu officiel de l&#8217;experience</a>.</em></p>
<p style="text-align: justify;">Durant<a href="http://www.openstoragesummit.org/emea_videos.html?utm_source=newsletter&amp;utm_medium=referral" target="_blank"> l&#8217;OpenStorage Summit EMEA 2012</a>, Andy Bennett raconte comment VMware a sollicité Nexenta pour pondre une solution de stockage comparable aux Vblocks d&#8217;EMC et FlexPods de NetApp mais à un coût radicalement inférieur (l&#8217;objectif était le meilleur prix au Téraoctet) et comment cette solution s&#8217;est retrouvée à héberger une partie des &#8220;Hands on lab&#8221; des 2 VMworld 2011 avec des disques NL-SAS 7500 rpm en face d&#8217;EMC et NetApp avec des baies remplies de SAS 15K et de SSD.</p>
<p style="text-align: justify;">Résultat, plus de de 10 milliards d&#8217;IOPS NFS sur les 2 VMworld à 2ms en moyenne (~1,2 VM déployées par seconde !) avec une solution à 330K$ face à NetApp et EMC avec des solution à 2M$&#8230;</p>
<p style="text-align: center;"><a href="https://www.dropbox.com/s/3skk1jj6g93fga7/VMWorld2011-Copenhagen.mov"><img class="aligncenter" src="http://files.hypervisor.fr/img/nexenta_aura.png" alt="" width="497" height="274" /></a></p>
<p style="text-align: justify;">
<p style="text-align: justify;">Il raconte également comment un module de RAM défectueux a fait planter un des nœuds de leur cluster sans conséquence sur les labs mais aussi comment, en quelques heures seulement, l&#8217;un des membres de l&#8217;équipe a designé et codé <a href="http://www.vmdude.fr/news/retour-du-vmworld-2011/" target="_blank">la fameuse interface Aura</a> (basé sur DTrace) contenant les metrics les plus importants pour les équipes d&#8217;experts VMware qui monitoraient l&#8217;infrastructure sur place. Du caviar pour les plus curieux d&#8217;entre nous&#8230;</p>
<p><object classid="clsid:d27cdb6e-ae6d-11cf-96b8-444553540000" width="420" height="236" codebase="http://download.macromedia.com/pub/shockwave/cabs/flash/swflash.cab#version=6,0,40,0"><param name="allowFullScreen" value="true" /><param name="allowscriptaccess" value="always" /><param name="src" value="http://www.youtube.com/v/BSsTH7DbGBA?version=3&amp;hl=fr_FR&amp;rel=0" /><param name="allowfullscreen" value="true" /><embed type="application/x-shockwave-flash" width="420" height="236" src="http://www.youtube.com/v/BSsTH7DbGBA?version=3&amp;hl=fr_FR&amp;rel=0" allowscriptaccess="always" allowfullscreen="true"></embed></object></p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=3915</wfw:commentRss>
		<slash:comments>1</slash:comments>
		</item>
		<item>
		<title>Monitoring des zpool dans cacti</title>
		<link>http://www.hypervisor.fr/?p=3828</link>
		<comments>http://www.hypervisor.fr/?p=3828#comments</comments>
		<pubDate>Wed, 18 Apr 2012 15:25:10 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Tips & Tricks]]></category>
		<category><![CDATA[ZFS]]></category>
		<category><![CDATA[Best Practices]]></category>
		<category><![CDATA[copy on write]]></category>
		<category><![CDATA[nexenta]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=3828</guid>
		<description><![CDATA[L&#8217;une des best practices biens connues de ZFS est d’éviter au maximum de descendre en dessous de 20% d&#8217;espace libre sur un zpool afin d’éviter les potentiels dégradations de performances liées au Copy On Write.

Keep pool space under 80% utilization to maintain pool performance.
[...]
If the primary workload is immutable files (write once, never remove), then you can keep [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;"><a href="http://www.solarisinternals.com/wiki/index.php/ZFS_Best_Practices_Guide" target="_blank">L&#8217;une des best practices biens connues de ZFS</a> est d’éviter au maximum de descendre en dessous de 20% d&#8217;espace libre sur un zpool afin d’éviter les potentiels dégradations de performances liées au Copy On Write.</p>
<blockquote>
<p style="text-align: justify;"><strong>Keep pool space under 80% utilization to maintain pool performance.</strong></p>
<p style="text-align: justify;">[...]</p>
<p style="text-align: justify;">If the primary workload is immutable files (write once, never remove), then you can keep a pool in the 95-96% utilization range.</p>
</blockquote>
<p style="text-align: justify;">Le 95-96% correspond au changement de <a href="https://blogs.oracle.com/roch/entry/doubling_exchange_performance" target="_blank">block allocation</a> contrôlé par le paramètre <strong>metaslab_df_alloc_threshold</strong> :</p>
<blockquote>
<p style="text-align: justify;">The minimum free space, in percent, which must be available in a space map to continue allocations in a first-fit fashion. Once the space_map&#8217;s free space drops below this level we dynamically switch to using best-fit allocations.</p>
</blockquote>
<p style="text-align: justify;">Vous l&#8217;aurez compris, le monitoring des zpool est primordiale. Sous Nexenta ce n&#8217;est pas chose facile car <a href="http://www.hypervisor.fr/?p=3030" target="_blank">seuls les point de montage sont visibles par défaut en snmp</a>, mais nous avons une solution simple n&#8217;impliquant que peux de modifications.</p>
<ul>
<li>ajouter les lignes suivantes dans votre conf snmp :</li>
</ul>
<blockquote><p>extend .1.3.6.1.4.1.2021.87 zpool_name /bin/bash -c &#8220;zpool list -H -o name&#8221;<br />
extend .1.3.6.1.4.1.2021.87 zpool_capacity /bin/bash -c &#8220;zpool list -H -o capacity&#8221;</p></blockquote>
<ul>
<li>copier le fichier zpool_capacity.xml dans le répertoire /resource/snmp_queries de votre cacti</li>
<li>importer les templates cacti_data_query_zfs_-_zpool_capacity.xml et cacti_graph_template_zfs_-_zpool_capacity.xml dans l&#8217;interface web cacti</li>
<li>choisissez les zpool à monitorer sur votre/vos nexenta (<strong>y compris le syspool</strong>)</li>
</ul>
<p style="text-align: center;"><img class="aligncenter" src="http://files.hypervisor.fr/img/zpool_capacity.png" alt="" width="482" height="186" /></p>
<ul>
<li>en option, créez un Threshold Template pour recevoir une alerte en cas de dépassement de 80%</li>
</ul>
<div class="wp-caption aligncenter" style="width: 110px"><a href="http://files.hypervisor.fr/scripts/cacti_zpool_capacity.zip"><img class="            " title="zpool_capacity" src="http://files.hypervisor.fr/img/super_mario_piranha_plant.png" alt="" width="100" height="100" /></a><p class="wp-caption-text">zpool capacity</p></div>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=3828</wfw:commentRss>
		<slash:comments>3</slash:comments>
		</item>
		<item>
		<title>FC to iSCSI failover (revival)</title>
		<link>http://www.hypervisor.fr/?p=3164</link>
		<comments>http://www.hypervisor.fr/?p=3164#comments</comments>
		<pubDate>Mon, 18 Jul 2011 00:00:20 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[HowTo]]></category>
		<category><![CDATA[Tips & Tricks]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[ZFS]]></category>
		<category><![CDATA[iSCSI]]></category>
		<category><![CDATA[nexenta]]></category>
		<category><![CDATA[vmhba]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=3164</guid>
		<description><![CDATA[Nous sommes tombé par hasard sur un vieux (2008) post de Scott Lowe au sujet de la possibilité d&#8217;utiliser l&#8217;initiateur logiciel iSCSI d&#8217;ESX comme failover au Fibre Channel, un peu comme &#8220;Connectivity Fault Tolerance&#8221; de CSV mais en mieux car contrairement à SMB, iSCSI est fait pour ça. Ce post n&#8217;a semble t&#8217;il pas abouti pour [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">Nous sommes tombé par hasard sur <a href="http://blog.scottlowe.org/2008/04/28/fibre-channel-to-software-iscsi-failover-failures/" target="_blank">un vieux (2008) post de Scott Lowe au sujet de la possibilité d&#8217;utiliser l&#8217;initiateur logiciel iSCSI d&#8217;ESX comme failover au Fibre Channel</a>, un peu comme <a href="http://www.hypervisor.fr/?p=1202" target="_blank">&#8220;Connectivity Fault Tolerance&#8221; de CSV</a> mais en mieux car contrairement à SMB, iSCSI est fait pour ça. Ce post n&#8217;a semble t&#8217;il pas abouti pour des raisons de fonctionnement à l&#8217;époque mais nous comptons bien le dépoussiérer un peu&#8230;</p>
<p style="text-align: justify;">Et justement, en ce moment nous sommes en pleine découverte de la configuration FC sur Nexenta (<a href="http://docs.oracle.com/cd/E23824_01/html/821-1459/glddq.html" target="_blank">plus particulièrement sur la configuration du mode target</a>) qui est un Unified Storage System  tout à fait capable de présenter la même LUN (<a href="http://www.nexenta.com/corp/content/view/109/119/" target="_blank">un zvol pour être précis</a>) via FC et iSCSI. Voici donc une petite démo en 4 étapes :</p>
<ol>
<li>Coupure de vmhba1 (prefered path) &gt; Bascule sur vmhba2</li>
<li>Coupure de vmhba2 &gt; Bascule sur vmhba32 (iSCSI)</li>
<li>Restauration de vmhba2 &gt; Aucun effet</li>
<li>Restauration de vmhba1 &gt; bascule sur vmhba1</li>
</ol>
<p><object width="320" height="284"><param name="movie" value="http://www.dailymotion.com/swf/video/xjxk8q?hideInfos=1"></param><param name="allowFullScreen" value="true"></param><param name="allowScriptAccess" value="always"></param><param name="wmode" value="transparent"></param><embed type="application/x-shockwave-flash" src="http://www.dailymotion.com/swf/video/xjxk8q?hideInfos=1" width="320" height="284" wmode="transparent" allowfullscreen="true" allowscriptaccess="always"></embed></object></p>
<p style="text-align: justify;">Tout d&#8217;abord, vous remarquerez que ça bombarde à 10k+ IOPS (alors que le serveur Nexenta est une petite VM), remettez vous, <a href="http://bigip-blogs-adc.oracle.com/brendan/entry/test" target="_blank">c&#8217;est l&#8217;effet ZFS</a> <img src='http://www.hypervisor.fr/wp-includes/images/smilies/icon_wink.gif' alt=';)' class='wp-smiley' /> </p>
<p style="text-align: justify;">Plus sérieusement, on remarque que <strong>le failover se fait dans le sens croissant des vmhba</strong>, ce qui règle le problème du choix d&#8217;iSCSI qu&#8217;en dernier recours étant donné que l&#8217;initiateur est toujours à 32 ou plus. De plus le failover se fait dans un délais raisonnable de <strong>10 secondes</strong> (<a href="http://files.hypervisor.fr/img/MPIO.png" target="_blank">contre 30sec pour MPIO de Windows 2008 R2 et donc d&#8217;Hyper-V</a>) <span style="text-decoration: line-through;">mais cette solution pose un réel problème si le chemin préféré venait a être le seul à ne PAS être restauré car le chemin iSCSI est considéré comme les autres donc restera &#8220;valable&#8221;</span> (cf <a href="http://www.hypervisor.fr/?p=4389" target="_blank">FC to iSCSI failover : MRU ranking</a>). Mais nous pensons que cela reste néanmoins une solution à connaitre et peut être à envisager pour les plus parano du HA.</p>
<p style="text-align: justify;">Et le plus drôle dans l&#8217;histoire c&#8217;est que vous n&#8217;avez rien à configurer !</p>
<p style="text-align: justify;">PS: Ça doit être possible à faire avec les autres hyperviseurs évidement&#8230;</p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=3164</wfw:commentRss>
		<slash:comments>12</slash:comments>
		</item>
		<item>
		<title>Monitoring des &#8220;Folders&#8221; de Nexenta en SNMP</title>
		<link>http://www.hypervisor.fr/?p=3030</link>
		<comments>http://www.hypervisor.fr/?p=3030#comments</comments>
		<pubDate>Fri, 03 Jun 2011 21:04:45 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[HowTo]]></category>
		<category><![CDATA[Tips & Tricks]]></category>
		<category><![CDATA[nexenta]]></category>
		<category><![CDATA[snmp]]></category>
		<category><![CDATA[ZFS]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=3030</guid>
		<description><![CDATA[Par défaut, le serveur snmp de l&#8217;appliance Nexenta (qui a déjà du remplacer vos openfiler  entre autres grâce aux stars du ZFS : ZIL, L2ARC et Snapshots) ne présente qu&#8217;une partie des informations et malheureusement pas les volumes/folders. Sans même avoir recours au mode expert, il est possible d&#8217;y remédier en rajoutant &#8220;includeAllDisks&#8221; à la fin du fichier de config snmp accessible en ssh via [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">Par défaut, le serveur snmp de l&#8217;appliance Nexenta (qui a déjà du remplacer vos openfiler  entre autres grâce aux stars du <strong>ZFS</strong> : <a href="http://www.solarisinternals.com/wiki/index.php/ZFS_Best_Practices_Guide#Separate_Log_Devices" target="_blank">ZIL</a>, <a href="http://www.solarisinternals.com/wiki/index.php/ZFS_Best_Practices_Guide#Separate_Cache_Devices" target="_blank">L2ARC</a> et <a href="http://academic.fuseyism.com/ambassador/slides/zfs.pdf" target="_blank">Snapshots</a>) ne présente qu&#8217;une partie des informations et malheureusement pas les volumes/folders. Sans même avoir recours au <a href="http://serverfault.com/questions/237975/how-do-i-login-to-nexenta-in-expert-mode" target="_blank">mode expert</a>, il est possible d&#8217;y remédier en rajoutant &#8220;<strong>includeAllDisks</strong>&#8221; à la fin du fichier de config snmp accessible en ssh via la commande suivante dans le shell nmc :</p>
<blockquote><p>setup network service snmp-agent edit-settings snmpd.conf</p></blockquote>
<p>Et voila le résultat :</p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/nexenta_snmp.png" title="nexenta_snmp" rel="lightbox[3030]"><img class="aligncenter size-full wp-image-3031" title="nexenta_snmp" src="http://www.hypervisor.fr/wp-content/uploads/2011/06/nexenta_snmp.png" alt="" width="362" height="148" /></a></p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=3030</wfw:commentRss>
		<slash:comments>3</slash:comments>
		</item>
	</channel>
</rss>
