<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Hypervisor.fr &#187; nexenta</title>
	<atom:link href="http://www.hypervisor.fr/?feed=rss2&#038;tag=nexenta" rel="self" type="application/rss+xml" />
	<link>http://www.hypervisor.fr</link>
	<description>French Bare-Metal weblog</description>
	<lastBuildDate>Wed, 26 Jun 2024 22:42:28 +0000</lastBuildDate>
	<generator>http://wordpress.org/?v=2.9.2</generator>
	<language>en</language>
	<sy:updatePeriod>hourly</sy:updatePeriod>
	<sy:updateFrequency>1</sy:updateFrequency>
			<item>
		<title>Installer SABnzbd sur NexentaStor 3.1</title>
		<link>http://www.hypervisor.fr/?p=4645</link>
		<comments>http://www.hypervisor.fr/?p=4645#comments</comments>
		<pubDate>Tue, 09 Apr 2013 07:25:16 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[News]]></category>
		<category><![CDATA[ZFS]]></category>
		<category><![CDATA[Hadopi]]></category>
		<category><![CDATA[nexenta]]></category>
		<category><![CDATA[nntp]]></category>
		<category><![CDATA[nzb]]></category>
		<category><![CDATA[warez]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=4645</guid>
		<description><![CDATA[MAJ 13.04.2013 : Nous avons oublié de vous recommander de faire un snapshot ZFS du syspool avant de commencer l&#8217;installation. Voila, c&#8217;est fait.
Nous profitons de la récente disponibilité de NexentaStor 3.1.4 (toujours pas disponible en version CE) pour vous faire partager le modus operandi de l&#8217;installation de SABnzbd sur NexentaStor 3.1 qui nous a été [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;"><em><span style="color: #ff0000;">MAJ 13.04.2013</span><em> : Nous avons oublié de vous recommander de faire un snapshot ZFS du syspool avant de commencer l&#8217;installation. Voila, c&#8217;est fait.</em></em></p>
<p style="text-align: justify;">Nous profitons de <a href="https://twitter.com/nexenta/status/321110321546792960" target="_blank">la récente disponibilité de NexentaStor 3.1.4</a> (toujours pas disponible en version CE) pour vous faire partager le modus operandi de l&#8217;installation de SABnzbd sur NexentaStor 3.1 qui nous a été transmis par <a href="http://nexentastor.org/boards/12/topics/7912#message-8054" target="_blank">Brenn Oosterbaan</a> et que nous n&#8217;avons que très peu modifié pour le rendre utilisable par (à peu près) tous. Thanks Breen!</p>
<p style="text-align: center;"><a href="http://sabnzbd.org/" target="_blank"><img class="aligncenter" src="http://sabnzbd.org/resources/landing/sabnzbd_logo.png" alt="" width="245" height="67" /></a></p>
<p style="text-align: justify;">Breen nous a aussi fourni le fichier xml permettant de configurer SABnzbd en tant que service mais <strong>nous avons été contraint de forcer l&#8217;adresse et le port d’écoute dans la commande de démarrage (0.0.0.0:8080)</strong> ce qui rend toute modification (lié au host:port d&#8217;écoute) dans l&#8217;interface de configuration de SABnzbd non persistante. Si vous avez l&#8217;intention de changer le port, faites le dans le fichier sabnzbd.xml fourni et relancer la commande d&#8217;import.</p>
<p style="text-align: justify;">Une fois l&#8217;installation terminée et le service démarré, vous devriez observer quelque chose de similaire à cela dans le log du service :</p>
<pre class="brush: bash; title: ; notranslate">
_yenc module... found!
par2 binary... found (/usr/local/bin/par2)
unrar binary... found (/usr/bin/unrar)
unzip binary... found (/usr/bin/unzip)
nice binary... found (/usr/bin/nice)
ionice binary... NOT found!
pyOpenSSL... found (True)
Starting web-interface on 0.0.0.0:8080
ENGINE Bus STARTING
ENGINE Started monitor thread '_TimeoutMonitor'.
ENGINE Serving on 0.0.0.0:8080
ENGINE Bus STARTED
Starting SABnzbd.py-0.7.11
Dirscanner starting up
URLGrabber starting up
</pre>
<p>Comme toujours il faudra passer par<a href="http://info.nexenta.com/rs/nexenta/images/doc_3.1_nexentastor-userguide-3-1.pdf#page=26" target="_blank"> le fameux mode &#8220;expert&#8221;</a> pour accéder au shell. <a href="http://youtu.be/BUmVuxX0ulk?t=1m15s" target="_blank">Et gare à la Hadopi !</a></p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/zip/sabzfs/SABnzbd_0.7.11_NexentaStor.png" target="_blank"><img class="aligncenter" src="http://files.hypervisor.fr/zip/sabzfs/SABnzbd_0.7.11_NexentaStor.png" alt="" width="530" height="311" /></a></p>
<div class="wp-caption aligncenter" style="width: 110px"><a href="http://files.hypervisor.fr/zip/sabzfs/install.txt"><img class="            " title="install.txt" src="http://files.hypervisor.fr/img/super_mario_piranha_plant.png" alt="" width="100" height="100" /></a><p class="wp-caption-text">install.txt</p></div>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=4645</wfw:commentRss>
		<slash:comments>1</slash:comments>
		</item>
		<item>
		<title>ZFS snapshot auto-destroy onliner</title>
		<link>http://www.hypervisor.fr/?p=4484</link>
		<comments>http://www.hypervisor.fr/?p=4484#comments</comments>
		<pubDate>Thu, 13 Dec 2012 07:12:17 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[ZFS]]></category>
		<category><![CDATA[bash]]></category>
		<category><![CDATA[crontab]]></category>
		<category><![CDATA[nexenta]]></category>
		<category><![CDATA[oneliner]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=4484</guid>
		<description><![CDATA[MAJ 23.05.2013 : Et voici un cas d&#8217;usage réel en production.
Tous ceux qui ont eu à affronter un manque d&#8217;espace critique sur un zpool se sont au moins une fois posé la question suivante : Pourquoi ZFS n&#8217;est il pas capable de supprimer automatiquement les plus anciens snapshot pour libérer de l&#8217;espace en cas de [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;"><em><span style="color: #ff0000;">MAJ 23.05.2013</span><em> : <a href="https://twitter.com/hypervisor_fr/status/337986858892017665/photo/1" target="_blank">Et voici un cas d&#8217;usage réel en production</a>.</em></em></p>
<p style="text-align: justify;">Tous ceux qui ont eu à affronter un manque d&#8217;espace critique sur un zpool se sont au moins une fois posé la question suivante : <strong><strong>Pourquoi ZFS n&#8217;est il pas capable de supprimer automatiquement les plus anciens snapshot pour libérer de l&#8217;espace en cas de besoin ?</strong></strong></p>
<p style="text-align: justify;">La réponse est évidement parce que ce n&#8217;est pas (encore) intégré à ZFS mais peut être que le futur principe de &#8220;<a href="http://blog.delphix.com/csiden/files/2012/01/ZFS_Feature_Flags.pdf">feature flags</a>&#8221; (qui remplacera la fameuse &#8220;version&#8221; de ZFS) facilitera la naissance de cette fonctionnalité tant espérée. En attendant, il y a toujours la bonne vielle crontab toujours très pratique et si on pimente à la sauce oneliner, ça donne quelque chose d&#8217;un peu trash mais fonctionnel :</p>
<pre class="brush: bash; title: ; notranslate">for zpool in `zpool list -H -o name,capacity | sed &quot;s/%//g&quot; | awk '{ if ( $2 &gt; 80 ) { print $1; } }'`; do zfs list -H -o name -t snapshot | grep -E &quot;^$zpool&quot; | head -n $[$(zfs list -H -o name -t snapshot | grep -E &quot;^$zpool&quot;|wc -l) / 5 + 1]  | xargs -n1 zfs destroy -R ; done</pre>
<p style="text-align: justify;"><strong>Ce oneliner détruira récursivement 25% des plus vieux snapshots</strong> (+1 pour éviter les cas ou 25% feraient moins d&#8217;1 snapshot) <strong>d&#8217;un zpool si le remplissage dépasse les 80%</strong>.</p>
<p style="text-align: justify;">Voici une démo de ce script sur un zpool soumis à remplissage perpétuel (dd en boucle + snapshot toutes les minutes) :</p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/zfs_snapshot_autoremove.png" target="_blank"><img class="aligncenter" src="http://files.hypervisor.fr/img/zfs_snapshot_autoremove.png" alt="" width="482" height="231" /></a></p>
<p style="text-align: justify;">Observations du graphique : jusqu&#8217;à 10h nous avons programmé le script toutes les minutes, puis toutes les 5min jusqu&#8217;à 15h30, puis nous l&#8217;avons désactivé et le zpool sature presque immédiatement après.</p>
<p style="text-align: left;">Voici l&#8217;extrait de la crontab de notre nexenta de test :</p>
<pre class="brush: bash; title: ; notranslate">* * * * * for zpool in `zpool list -H -o name,capacity | sed &quot;s/\%//g&quot; | awk '{ if ( \$2 &gt; 80 ) { print \$1; } }'`; do zfs list -H -o name -t snapshot | grep -E &quot;^$zpool&quot; | head -n $[$(zfs list -H -o name -t snapshot | grep -E &quot;^$zpool&quot;|wc -l) / 5 + 1]  | xargs -n1 zfs destroy -R ; done</pre>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=4484</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>Nexenta 3.1.3.5 paravirtualisé</title>
		<link>http://www.hypervisor.fr/?p=4330</link>
		<comments>http://www.hypervisor.fr/?p=4330#comments</comments>
		<pubDate>Thu, 25 Oct 2012 22:34:04 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[News]]></category>
		<category><![CDATA[ZFS]]></category>
		<category><![CDATA[nexenta]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=4330</guid>
		<description><![CDATA[C&#8217;est à l&#8217;occasion du VMworld 2012 EMEA que nous avons pu en savoir un peu plus sur la roadmap de l&#8217;appliance ZFS et sur la fameuse version 3.1.3.5 (oui c&#8217;est n&#8217;importe quoi mais il paraîtrai qu&#8217;il fallait rapidement sortir une version et que la 3.1.4 n&#8217;était pas prête&#8230;) qui a fait son apparition cette semaine.
A la lecture du [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">C&#8217;est à l&#8217;occasion du VMworld 2012 EMEA que nous avons pu en savoir un peu plus sur la roadmap de l&#8217;appliance ZFS et sur la fameuse version 3.1.3.5 (oui c&#8217;est n&#8217;importe quoi mais il paraîtrai qu&#8217;il fallait rapidement sortir une version et que la 3.1.4 n&#8217;était pas prête&#8230;) qui a fait son apparition cette semaine.</p>
<p style="text-align: justify;">A la lecture du <a href="http://info.nexenta.com/rs/nexenta/images/doc_3.1_release_notes_3.1.3.5.pdf" target="_blank">release notes</a>, on remarque tout de suite qu&#8217;il est globalement question de nouveaux drivers dont <strong><a href="http://www.vmware.com/pdf/vsp_4_vmxnet3_perf.pdf" target="_blank">vmxnet3</a></strong> (très attendu) et <strong><a href="http://www.vmware.com/pdf/vsp_4_pvscsi_perf.pdf" target="_blank">pvscsi</a></strong>, derniers maillons manquant à Nexenta pour être une pure appliance de stockage VMware.</p>
<p style="text-align: justify;">Pour ceux qui passeraient par le processus d&#8217;upgrade, il est fort probable que vous ayez à lancer les commandes suivantes (suivit d&#8217;un reboot) pour installer les 2 packages contenant les pilotes :</p>
<blockquote><p>apt-get install nexenta-vmxnet3<br />
apt-get install nexenta-pvscsi</p></blockquote>
<p style="text-align: justify;">Pendant notre échange avec les gens de chez Nexenta (qui nous ont confirmé la sortie de Nexenta 4.0 basé sur illumos d&#8217;ici la fin de l&#8217;année), nous avons pu apercevoir la nouvelle version de NexentaVSA for View (une appliance dédié au VDI)  mais surtout l’intégration d&#8217;une version++ d&#8217;<strong>Aura</strong>, <a href="http://www.hypervisor.fr/?p=3915" target="_blank">l&#8217;interface de monitoring révolutionnaire développé à l’arrache pendant le VMworld 2011</a> :</p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/aura_2.jpg" target="_blank"><img class="aligncenter" src="http://files.hypervisor.fr/img/aura_2.jpg" alt="" width="505" height="434" /></a></p>
<p style="text-align: justify;">D&#8217;après le sales manager présent lors de notre discussion, l’intégration d&#8217;Aura serait prévue dans la version 4.0 de Nexenta et le support de VAAI NFS sera pour la suivante mais surtout inclut dans la version Community Edition comme pour le VAAI en mode block depuis la 3.1.3. D&#8217;ici la, nous aurons tout de même droit à la version 3.1.4 <img src='http://www.hypervisor.fr/wp-includes/images/smilies/icon_smile.gif' alt=':)' class='wp-smiley' /> </p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=4330</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>VMworld 2011 : le feedback de Nexenta &#8211; MAJ</title>
		<link>http://www.hypervisor.fr/?p=3915</link>
		<comments>http://www.hypervisor.fr/?p=3915#comments</comments>
		<pubDate>Wed, 04 Jul 2012 16:40:22 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Hardware]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[ZFS]]></category>
		<category><![CDATA[DTrace]]></category>
		<category><![CDATA[nexenta]]></category>
		<category><![CDATA[vmworld]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=3915</guid>
		<description><![CDATA[MAJ 24.03.2013 : Voici le compte rendu officiel de l&#8217;experience.
Durant l&#8217;OpenStorage Summit EMEA 2012, Andy Bennett raconte comment VMware a sollicité Nexenta pour pondre une solution de stockage comparable aux Vblocks d&#8217;EMC et FlexPods de NetApp mais à un coût radicalement inférieur (l&#8217;objectif était le meilleur prix au Téraoctet) et comment cette solution s&#8217;est retrouvée à héberger une partie des &#8220;Hands on lab&#8221; des 2 VMworld 2011 [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;"><em><span style="color: #ff0000;">MAJ 24.03.2013</span> : <a href="http://info.nexenta.com/rs/nexenta/images/data_sheet_vmworld_hands_on_lab.pdf" target="_blank">Voici le compte rendu officiel de l&#8217;experience</a>.</em></p>
<p style="text-align: justify;">Durant<a href="http://www.openstoragesummit.org/emea_videos.html?utm_source=newsletter&amp;utm_medium=referral" target="_blank"> l&#8217;OpenStorage Summit EMEA 2012</a>, Andy Bennett raconte comment VMware a sollicité Nexenta pour pondre une solution de stockage comparable aux Vblocks d&#8217;EMC et FlexPods de NetApp mais à un coût radicalement inférieur (l&#8217;objectif était le meilleur prix au Téraoctet) et comment cette solution s&#8217;est retrouvée à héberger une partie des &#8220;Hands on lab&#8221; des 2 VMworld 2011 avec des disques NL-SAS 7500 rpm en face d&#8217;EMC et NetApp avec des baies remplies de SAS 15K et de SSD.</p>
<p style="text-align: justify;">Résultat, plus de de 10 milliards d&#8217;IOPS NFS sur les 2 VMworld à 2ms en moyenne (~1,2 VM déployées par seconde !) avec une solution à 330K$ face à NetApp et EMC avec des solution à 2M$&#8230;</p>
<p style="text-align: center;"><a href="https://www.dropbox.com/s/3skk1jj6g93fga7/VMWorld2011-Copenhagen.mov"><img class="aligncenter" src="http://files.hypervisor.fr/img/nexenta_aura.png" alt="" width="497" height="274" /></a></p>
<p style="text-align: justify;">
<p style="text-align: justify;">Il raconte également comment un module de RAM défectueux a fait planter un des nœuds de leur cluster sans conséquence sur les labs mais aussi comment, en quelques heures seulement, l&#8217;un des membres de l&#8217;équipe a designé et codé <a href="http://www.vmdude.fr/news/retour-du-vmworld-2011/" target="_blank">la fameuse interface Aura</a> (basé sur DTrace) contenant les metrics les plus importants pour les équipes d&#8217;experts VMware qui monitoraient l&#8217;infrastructure sur place. Du caviar pour les plus curieux d&#8217;entre nous&#8230;</p>
<p><object classid="clsid:d27cdb6e-ae6d-11cf-96b8-444553540000" width="420" height="236" codebase="http://download.macromedia.com/pub/shockwave/cabs/flash/swflash.cab#version=6,0,40,0"><param name="allowFullScreen" value="true" /><param name="allowscriptaccess" value="always" /><param name="src" value="http://www.youtube.com/v/BSsTH7DbGBA?version=3&amp;hl=fr_FR&amp;rel=0" /><param name="allowfullscreen" value="true" /><embed type="application/x-shockwave-flash" width="420" height="236" src="http://www.youtube.com/v/BSsTH7DbGBA?version=3&amp;hl=fr_FR&amp;rel=0" allowscriptaccess="always" allowfullscreen="true"></embed></object></p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=3915</wfw:commentRss>
		<slash:comments>1</slash:comments>
		</item>
		<item>
		<title>Monitoring des zpool dans cacti</title>
		<link>http://www.hypervisor.fr/?p=3828</link>
		<comments>http://www.hypervisor.fr/?p=3828#comments</comments>
		<pubDate>Wed, 18 Apr 2012 15:25:10 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[Tips & Tricks]]></category>
		<category><![CDATA[ZFS]]></category>
		<category><![CDATA[Best Practices]]></category>
		<category><![CDATA[copy on write]]></category>
		<category><![CDATA[nexenta]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=3828</guid>
		<description><![CDATA[L&#8217;une des best practices biens connues de ZFS est d’éviter au maximum de descendre en dessous de 20% d&#8217;espace libre sur un zpool afin d’éviter les potentiels dégradations de performances liées au Copy On Write.

Keep pool space under 80% utilization to maintain pool performance.
[...]
If the primary workload is immutable files (write once, never remove), then you can keep [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;"><a href="http://www.solarisinternals.com/wiki/index.php/ZFS_Best_Practices_Guide" target="_blank">L&#8217;une des best practices biens connues de ZFS</a> est d’éviter au maximum de descendre en dessous de 20% d&#8217;espace libre sur un zpool afin d’éviter les potentiels dégradations de performances liées au Copy On Write.</p>
<blockquote>
<p style="text-align: justify;"><strong>Keep pool space under 80% utilization to maintain pool performance.</strong></p>
<p style="text-align: justify;">[...]</p>
<p style="text-align: justify;">If the primary workload is immutable files (write once, never remove), then you can keep a pool in the 95-96% utilization range.</p>
</blockquote>
<p style="text-align: justify;">Le 95-96% correspond au changement de <a href="https://blogs.oracle.com/roch/entry/doubling_exchange_performance" target="_blank">block allocation</a> contrôlé par le paramètre <strong>metaslab_df_alloc_threshold</strong> :</p>
<blockquote>
<p style="text-align: justify;">The minimum free space, in percent, which must be available in a space map to continue allocations in a first-fit fashion. Once the space_map&#8217;s free space drops below this level we dynamically switch to using best-fit allocations.</p>
</blockquote>
<p style="text-align: justify;">Vous l&#8217;aurez compris, le monitoring des zpool est primordiale. Sous Nexenta ce n&#8217;est pas chose facile car <a href="http://www.hypervisor.fr/?p=3030" target="_blank">seuls les point de montage sont visibles par défaut en snmp</a>, mais nous avons une solution simple n&#8217;impliquant que peux de modifications.</p>
<ul>
<li>ajouter les lignes suivantes dans votre conf snmp :</li>
</ul>
<blockquote><p>extend .1.3.6.1.4.1.2021.87 zpool_name /bin/bash -c &#8220;zpool list -H -o name&#8221;<br />
extend .1.3.6.1.4.1.2021.87 zpool_capacity /bin/bash -c &#8220;zpool list -H -o capacity&#8221;</p></blockquote>
<ul>
<li>copier le fichier zpool_capacity.xml dans le répertoire /resource/snmp_queries de votre cacti</li>
<li>importer les templates cacti_data_query_zfs_-_zpool_capacity.xml et cacti_graph_template_zfs_-_zpool_capacity.xml dans l&#8217;interface web cacti</li>
<li>choisissez les zpool à monitorer sur votre/vos nexenta (<strong>y compris le syspool</strong>)</li>
</ul>
<p style="text-align: center;"><img class="aligncenter" src="http://files.hypervisor.fr/img/zpool_capacity.png" alt="" width="482" height="186" /></p>
<ul>
<li>en option, créez un Threshold Template pour recevoir une alerte en cas de dépassement de 80%</li>
</ul>
<div class="wp-caption aligncenter" style="width: 110px"><a href="http://files.hypervisor.fr/scripts/cacti_zpool_capacity.zip"><img class="            " title="zpool_capacity" src="http://files.hypervisor.fr/img/super_mario_piranha_plant.png" alt="" width="100" height="100" /></a><p class="wp-caption-text">zpool capacity</p></div>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=3828</wfw:commentRss>
		<slash:comments>3</slash:comments>
		</item>
		<item>
		<title>VAAIE-AIE-AIE &#8211; MAJ</title>
		<link>http://www.hypervisor.fr/?p=3579</link>
		<comments>http://www.hypervisor.fr/?p=3579#comments</comments>
		<pubDate>Wed, 01 Feb 2012 00:24:39 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[News]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[ZFS]]></category>
		<category><![CDATA[nexenta]]></category>
		<category><![CDATA[VAAI]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=3579</guid>
		<description><![CDATA[MAJ 28/05/2012 : La version 3.1.3 corrige le bug de l&#8217;ATS mais il est toujours fortement conseillé de désactiver l&#8217;UNMAP (le paramètre &#8220;/VMFS3/EnableBlockDelete&#8221; est d&#8217;ailleurs désactivé dans ESXi 5.0 U1 même en cas d&#8217;update).
Voila maintenant 1 mois que nous participons à des tests avec les gens de chez nexenta concernant un problème lié à la routine Atomic Test &#38; [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;"><em><span style="color: #ff0000;">MAJ 28/05/2012</span> : <a href="http://info.nexenta.com/rs/nexenta/images/doc_3.1_release_notes_3.1.3.pdf" target="_blank">La version 3.1.3 corrige le bug de l&#8217;ATS</a> mais il est toujours fortement conseillé de désactiver l&#8217;UNMAP (le paramètre &#8220;/VMFS3/EnableBlockDelete&#8221; est d&#8217;ailleurs désactivé dans ESXi 5.0 U1 même en cas d&#8217;update).</em></p>
<p style="text-align: justify;">Voila maintenant 1 mois que nous participons à des tests avec les gens de chez nexenta concernant <a href="http://www.nexentastor.org/boards/1/topics/3273">un problème lié à la routine Atomic Test &amp; Set (ATS) de VAAI</a>. Le symptôme est assez radical : lors de certaines opérations courantes (svmotion par ex.), la LUN reste lockée donc inaccessible jusqu’à ce qu&#8217;elle soit &#8220;re-maskée&#8221; ou que le serveur nexenta soit rebooté.</p>
<p style="text-align: justify;">Jusqu&#8217;à ce que le bug soit corrigé, <strong>l&#8217;option la plus rapide est de <a href="http://kb.vmware.com/kb/1033665" target="_blank">désactiver l&#8217;ATS</a></strong>. L&#8217;idéal c&#8217;est un petit one-liner powershell qui le fait sur tous vos ESX :</p>

<div class="wp_syntax"><div class="code"><pre class="powershell" style="font-family:monospace;">Get<span style="color: pink;">-</span>VMHost<span style="color: pink;">|</span>Set<span style="color: pink;">-</span>VMHostAdvancedConfiguration <span style="color: #008080; font-style: italic;">-name</span> VMFS3.HardwareAcceleratedLocking <span style="color: #008080; font-style: italic;">-Value</span> <span style="color: #804000;">0</span></pre></div></div>

<p style="text-align: justify;"><strong><span style="color: #ff0000;">Attention aux LUN en VMFS5 natives qui ont été créées avec VAAI actif car elles sont tagguées &#8220;ATS-only&#8221;, ce qui veux dire qu&#8217;il n&#8217;est pas possible de les réserver en SCSI-2 classique. Pour désactiver ce mode, il faut utiliser la commande <a href="http://pubs.vmware.com/vsphere-50/topic/com.vmware.vsphere.storage.doc_50/GUID-6887003D-2322-49AC-A56C-7AFE7350DB5D.html?resultof=%22%63%6f%6e%66%69%67%41%54%53%4f%6e%6c%79%22%20%22%63%6f%6e%66%69%67%61%74%73%6f%6e%6c%69%22%20" target="_blank">vmkfstools avec le paramètre &#8221;configATSOnly</a>&#8220;.</span></strong></p>
<p style="text-align: justify;">Nous tenons à préciser que ce problème n&#8217;est pas lié à <a href="http://kb.vmware.com/kb/2007427" target="_blank">celui du UNMAP</a>.</p>
<p style="text-align: center;"><a href="http://virtualgeek.typepad.com/.a/6a00e552e53bd288330162fde47652970d-pi"><img class="aligncenter" src="http://virtualgeek.typepad.com/.a/6a00e552e53bd288330162fde47652970d-pi" alt="" width="491" height="369" /></a></p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=3579</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>Monitoring de la température des &#8220;disk&#8221; de Nexenta en SNMP</title>
		<link>http://www.hypervisor.fr/?p=3335</link>
		<comments>http://www.hypervisor.fr/?p=3335#comments</comments>
		<pubDate>Sun, 02 Oct 2011 23:58:36 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[HowTo]]></category>
		<category><![CDATA[Tips & Tricks]]></category>
		<category><![CDATA[ZFS]]></category>
		<category><![CDATA[cacti]]></category>
		<category><![CDATA[nexenta]]></category>
		<category><![CDATA[SMART]]></category>
		<category><![CDATA[snmp]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=3335</guid>
		<description><![CDATA[MAJ 03/10/2011 : L&#8217;export xml du caractère ° posait problème, nous avons régénéré un export corrigé.
Tout à commencé à partir d&#8217;un post qui traite de la customization du snmpd.conf en vue de faire un joli graph de l&#8217;ARC de ZFS avec cacti et d&#8217;un autre au sujet de smartmontools sous Solaris. En mixant les 2, nous sommes [...]]]></description>
			<content:encoded><![CDATA[<p><span style="color: #ff0000;"><em>MAJ 03/10/2011 : L&#8217;export xml du caractère </em>°<em> posait problème, nous avons régénéré un export corrigé.</em></span></p>
<p style="text-align: justify;">Tout à commencé à partir <a href="http://sylt.se/cacti-graph-for-solaris-zfs-memory/" target="_blank">d&#8217;un post qui traite de la customization du snmpd.conf en vue de faire un joli graph de l&#8217;ARC de ZFS avec cacti</a> et d&#8217;un autre <a href="http://cafenate.wordpress.com/2009/02/22/setting-up-smartmontools-on-opensolaris/" target="_blank">au sujet de smartmontools sous Solaris</a>. En mixant les 2, nous sommes arrivé à un moyen simple de <strong>remonter la moyenne des températures des disques d&#8217;un Nexenta dans cacti via SNMP</strong>.</p>
<ul>
<li>Installez smartmontools en <a href="http://serverfault.com/questions/237975/how-do-i-login-to-nexenta-in-expert-mode" target="_blank">mode expert</a> : &#8220;apt-get install smartmontools&#8221;</li>
<li>Ajoutez la ligne suivante dans la configuration snmp de Nexenta (<a href="http://www.nexenta.com/corp/nexentastor-faq-table/290-does-the-appliance-support-snmp" target="_blank">&#8220;setup network service snmp-agent edit-settings snmpd.conf&#8221; dans la NMC</a>) :</li>
</ul>

<div class="wp_syntax"><div class="code"><pre class="bash" style="font-family:monospace;">extend .1.3.6.1.4.1.2021.87 smart_temp <span style="color: #000000; font-weight: bold;">/</span>bin<span style="color: #000000; font-weight: bold;">/</span><span style="color: #c20cb9; font-weight: bold;">bash</span> <span style="color: #660033;">-c</span> <span style="color: #ff0000;">&quot;find /dev/rdsk/ -name <span style="color: #000099; font-weight: bold;">\&quot;</span>*p0<span style="color: #000099; font-weight: bold;">\&quot;</span> -exec /usr/sbin/smartctl -a -d scsi {} \\;|grep -E <span style="color: #000099; font-weight: bold;">\&quot;</span>Temperature:.*C<span style="color: #000099; font-weight: bold;">\&quot;</span>| awk 'BEGIN { n=0; sum=0; } { n++; sum += <span style="color: #000099; font-weight: bold;">\$</span>(NF-1); } END { printf (<span style="color: #000099; font-weight: bold;">\&quot;</span>%.2f<span style="color: #000099; font-weight: bold;">\&quot;</span>,sum / n); }'&quot;</span></pre></div></div>

<ul>
<li>Importez <a href="http://files.hypervisor.fr/scripts/cacti_graph_template_smart_-_average_hdd_temperature.xml" target="_blank"><strong>notre template</strong></a> dans cacti et créez le graphique sur votre Nexenta</li>
</ul>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/nexenta_smart.png"><img class="aligncenter" src="http://files.hypervisor.fr/img/nexenta_smart.png" alt="" width="482" height="198" /></a></p>
<p style="text-align: center;">
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=3335</wfw:commentRss>
		<slash:comments>2</slash:comments>
		</item>
		<item>
		<title>NexentaStor 3.1.1 : VAAI gratis</title>
		<link>http://www.hypervisor.fr/?p=3239</link>
		<comments>http://www.hypervisor.fr/?p=3239#comments</comments>
		<pubDate>Sat, 20 Aug 2011 00:30:47 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[News]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[ZFS]]></category>
		<category><![CDATA[nexenta]]></category>
		<category><![CDATA[VAAI]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=3239</guid>
		<description><![CDATA[Après un faux départ, NexentaStor 3.1 est enfin (re)disponible ! En plus des quelques nouvelles features et corrections de bug, la grosse bonne nouvelle c&#8217;est le support de VAAI pour ESXi 5+ (contrairement à ce qui avait été annoncé) y compris pour la version Community Edition. Ce qui en fait la toute première et seule solution [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">Après <a href="http://www.nexentastor.org/boards/2/topics/2955#message-2960" target="_blank">un faux départ</a>, NexentaStor 3.1 est enfin (re)disponible ! En plus <a href="http://www.nexenta.com/corp/images/stories/pdfs/release_notes-3_1_1-v3.pdf" target="_blank">des quelques nouvelles features et corrections de bug</a>, la grosse bonne nouvelle c&#8217;est le support de <a href="http://virtualgeek.typepad.com/.a/6a00e552e53bd288330133f2408629970b-pi" target="_blank">VAAI</a> pour ESXi 5+ (<a href="http://www.nexenta.com/corp/images/stories/pdfs/release_notes-3_1_1-v3.pdf" target="_blank">contrairement à ce qui avait été annoncé</a>) <strong>y compris pour la version Community Edition</strong>. Ce qui en fait la toute première et seule solution VAAI gratuite, pour le mode block uniquement. Voici la liste des routines VAAI supportées :</p>
<ul>
<li>SCSI Write Same (zeroing)</li>
<li>SCSI ATS (lock only the specific region on the LUN)</li>
<li>SCSI Block Copy (instruct the array to perform a block copy)</li>
<li>SCSI Unmap (<strong>return freed blocks in a zvol</strong>)</li>
</ul>
<p style="text-align: justify;">Je vous laisse imaginer l’intérêt d&#8217;une solution gratuite (jusqu&#8217;à 18To raw max pour la CE) supportant VAAI et reposant sur ZFS (<a href="http://en.wikipedia.org/wiki/ZFS" target="_blank">ARC, L2ARC, in-line deduplication, in-line compression, snapshots and copy-on-write clones, RAID-Z, native NFSv4 ACLs, continuous integrity checking and automatic repair, &#8230;</a>) face à toutes les appliances payantes du marché.</p>
<p>Et juste pour le plaisir des yeux :</p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/nexenta_3.1.1.png" title="nexenta_3.1.1" rel="lightbox[3239]"><img class="aligncenter size-full wp-image-3240" title="nexenta_3.1.1" src="http://www.hypervisor.fr/wp-content/uploads/2011/08/nexenta_3.1.1.png" alt="" width="539" height="260" /></a></p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=3239</wfw:commentRss>
		<slash:comments>14</slash:comments>
		</item>
		<item>
		<title>FC to iSCSI failover (revival)</title>
		<link>http://www.hypervisor.fr/?p=3164</link>
		<comments>http://www.hypervisor.fr/?p=3164#comments</comments>
		<pubDate>Mon, 18 Jul 2011 00:00:20 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[HowTo]]></category>
		<category><![CDATA[Tips & Tricks]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[ZFS]]></category>
		<category><![CDATA[iSCSI]]></category>
		<category><![CDATA[nexenta]]></category>
		<category><![CDATA[vmhba]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=3164</guid>
		<description><![CDATA[Nous sommes tombé par hasard sur un vieux (2008) post de Scott Lowe au sujet de la possibilité d&#8217;utiliser l&#8217;initiateur logiciel iSCSI d&#8217;ESX comme failover au Fibre Channel, un peu comme &#8220;Connectivity Fault Tolerance&#8221; de CSV mais en mieux car contrairement à SMB, iSCSI est fait pour ça. Ce post n&#8217;a semble t&#8217;il pas abouti pour [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">Nous sommes tombé par hasard sur <a href="http://blog.scottlowe.org/2008/04/28/fibre-channel-to-software-iscsi-failover-failures/" target="_blank">un vieux (2008) post de Scott Lowe au sujet de la possibilité d&#8217;utiliser l&#8217;initiateur logiciel iSCSI d&#8217;ESX comme failover au Fibre Channel</a>, un peu comme <a href="http://www.hypervisor.fr/?p=1202" target="_blank">&#8220;Connectivity Fault Tolerance&#8221; de CSV</a> mais en mieux car contrairement à SMB, iSCSI est fait pour ça. Ce post n&#8217;a semble t&#8217;il pas abouti pour des raisons de fonctionnement à l&#8217;époque mais nous comptons bien le dépoussiérer un peu&#8230;</p>
<p style="text-align: justify;">Et justement, en ce moment nous sommes en pleine découverte de la configuration FC sur Nexenta (<a href="http://docs.oracle.com/cd/E23824_01/html/821-1459/glddq.html" target="_blank">plus particulièrement sur la configuration du mode target</a>) qui est un Unified Storage System  tout à fait capable de présenter la même LUN (<a href="http://www.nexenta.com/corp/content/view/109/119/" target="_blank">un zvol pour être précis</a>) via FC et iSCSI. Voici donc une petite démo en 4 étapes :</p>
<ol>
<li>Coupure de vmhba1 (prefered path) &gt; Bascule sur vmhba2</li>
<li>Coupure de vmhba2 &gt; Bascule sur vmhba32 (iSCSI)</li>
<li>Restauration de vmhba2 &gt; Aucun effet</li>
<li>Restauration de vmhba1 &gt; bascule sur vmhba1</li>
</ol>
<p><object width="320" height="284"><param name="movie" value="http://www.dailymotion.com/swf/video/xjxk8q?hideInfos=1"></param><param name="allowFullScreen" value="true"></param><param name="allowScriptAccess" value="always"></param><param name="wmode" value="transparent"></param><embed type="application/x-shockwave-flash" src="http://www.dailymotion.com/swf/video/xjxk8q?hideInfos=1" width="320" height="284" wmode="transparent" allowfullscreen="true" allowscriptaccess="always"></embed></object></p>
<p style="text-align: justify;">Tout d&#8217;abord, vous remarquerez que ça bombarde à 10k+ IOPS (alors que le serveur Nexenta est une petite VM), remettez vous, <a href="http://bigip-blogs-adc.oracle.com/brendan/entry/test" target="_blank">c&#8217;est l&#8217;effet ZFS</a> <img src='http://www.hypervisor.fr/wp-includes/images/smilies/icon_wink.gif' alt=';)' class='wp-smiley' /> </p>
<p style="text-align: justify;">Plus sérieusement, on remarque que <strong>le failover se fait dans le sens croissant des vmhba</strong>, ce qui règle le problème du choix d&#8217;iSCSI qu&#8217;en dernier recours étant donné que l&#8217;initiateur est toujours à 32 ou plus. De plus le failover se fait dans un délais raisonnable de <strong>10 secondes</strong> (<a href="http://files.hypervisor.fr/img/MPIO.png" target="_blank">contre 30sec pour MPIO de Windows 2008 R2 et donc d&#8217;Hyper-V</a>) <span style="text-decoration: line-through;">mais cette solution pose un réel problème si le chemin préféré venait a être le seul à ne PAS être restauré car le chemin iSCSI est considéré comme les autres donc restera &#8220;valable&#8221;</span> (cf <a href="http://www.hypervisor.fr/?p=4389" target="_blank">FC to iSCSI failover : MRU ranking</a>). Mais nous pensons que cela reste néanmoins une solution à connaitre et peut être à envisager pour les plus parano du HA.</p>
<p style="text-align: justify;">Et le plus drôle dans l&#8217;histoire c&#8217;est que vous n&#8217;avez rien à configurer !</p>
<p style="text-align: justify;">PS: Ça doit être possible à faire avec les autres hyperviseurs évidement&#8230;</p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=3164</wfw:commentRss>
		<slash:comments>12</slash:comments>
		</item>
		<item>
		<title>Zettabyte File System</title>
		<link>http://www.hypervisor.fr/?p=3104</link>
		<comments>http://www.hypervisor.fr/?p=3104#comments</comments>
		<pubDate>Tue, 21 Jun 2011 00:07:53 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[ZFS]]></category>
		<category><![CDATA[nexenta]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=3104</guid>
		<description><![CDATA[Parce qu&#8217;une bonne infra a besoin d&#8217;un bon stockage, nous inaugurons une nouvelle section &#8220;ZFS&#8221; dans laquelle nous tenterons de regrouper des liens précieux à ce sujet. L&#8217;idéal étant néanmoins de commencer par l&#8217;article Wikipédia dont la phrase suivante résume l&#8217;un des intérêts majeurs de ZFS :
One major feature that distinguishes ZFS from other file systems is [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">Parce qu&#8217;une bonne infra a besoin d&#8217;un bon stockage, nous inaugurons une nouvelle section &#8220;<a href="http://www.hypervisor.fr/?page_id=3102" target="_blank">ZFS</a>&#8221; dans laquelle nous tenterons de regrouper des liens précieux à ce sujet. L&#8217;idéal étant néanmoins de commencer par <a href="http://en.wikipedia.org/wiki/ZFS" target="_blank">l&#8217;article Wikipédia</a> dont la phrase suivante résume l&#8217;un des intérêts majeurs de ZFS :</p>
<blockquote><p>One major feature that distinguishes ZFS from other file systems is that ZFS is designed from the ground up with a focus on <strong>data integrity</strong></p></blockquote>
<p style="text-align: justify;">Et parce que c&#8217;est toujours bon de terminer par une touche d&#8217;humour, un petit extrait de <a href="http://blogs.oracle.com/bonwick/entry/raid_z" target="_blank">l&#8217;article &#8220;RAID-Z&#8221; écrit par Jeff Bonwick (le &#8220;papa&#8221; de ZFS)</a> :</p>
<blockquote><p>The original promise of RAID (Redundant Arrays of Inexpensive Disks) was that it would provide fast, reliable storage using cheap disks. The key point was <strong>cheap;</strong> yet somehow we ended up <a href="http://www.emc.com/">here</a>.</p></blockquote>
<p style="text-align: center;"><img class="aligncenter" src="http://files.hypervisor.fr/img/sun_logo.gif" alt="" width="183" height="182" /></p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=3104</wfw:commentRss>
		<slash:comments>3</slash:comments>
		</item>
		<item>
		<title>Monitoring des &#8220;Folders&#8221; de Nexenta en SNMP</title>
		<link>http://www.hypervisor.fr/?p=3030</link>
		<comments>http://www.hypervisor.fr/?p=3030#comments</comments>
		<pubDate>Fri, 03 Jun 2011 21:04:45 +0000</pubDate>
		<dc:creator>NiTRo</dc:creator>
				<category><![CDATA[HowTo]]></category>
		<category><![CDATA[Tips & Tricks]]></category>
		<category><![CDATA[nexenta]]></category>
		<category><![CDATA[snmp]]></category>
		<category><![CDATA[ZFS]]></category>

		<guid isPermaLink="false">http://www.hypervisor.fr/?p=3030</guid>
		<description><![CDATA[Par défaut, le serveur snmp de l&#8217;appliance Nexenta (qui a déjà du remplacer vos openfiler  entre autres grâce aux stars du ZFS : ZIL, L2ARC et Snapshots) ne présente qu&#8217;une partie des informations et malheureusement pas les volumes/folders. Sans même avoir recours au mode expert, il est possible d&#8217;y remédier en rajoutant &#8220;includeAllDisks&#8221; à la fin du fichier de config snmp accessible en ssh via [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: justify;">Par défaut, le serveur snmp de l&#8217;appliance Nexenta (qui a déjà du remplacer vos openfiler  entre autres grâce aux stars du <strong>ZFS</strong> : <a href="http://www.solarisinternals.com/wiki/index.php/ZFS_Best_Practices_Guide#Separate_Log_Devices" target="_blank">ZIL</a>, <a href="http://www.solarisinternals.com/wiki/index.php/ZFS_Best_Practices_Guide#Separate_Cache_Devices" target="_blank">L2ARC</a> et <a href="http://academic.fuseyism.com/ambassador/slides/zfs.pdf" target="_blank">Snapshots</a>) ne présente qu&#8217;une partie des informations et malheureusement pas les volumes/folders. Sans même avoir recours au <a href="http://serverfault.com/questions/237975/how-do-i-login-to-nexenta-in-expert-mode" target="_blank">mode expert</a>, il est possible d&#8217;y remédier en rajoutant &#8220;<strong>includeAllDisks</strong>&#8221; à la fin du fichier de config snmp accessible en ssh via la commande suivante dans le shell nmc :</p>
<blockquote><p>setup network service snmp-agent edit-settings snmpd.conf</p></blockquote>
<p>Et voila le résultat :</p>
<p style="text-align: center;"><a href="http://files.hypervisor.fr/img/nexenta_snmp.png" title="nexenta_snmp" rel="lightbox[3030]"><img class="aligncenter size-full wp-image-3031" title="nexenta_snmp" src="http://www.hypervisor.fr/wp-content/uploads/2011/06/nexenta_snmp.png" alt="" width="362" height="148" /></a></p>
]]></content:encoded>
			<wfw:commentRss>http://www.hypervisor.fr/?feed=rss2&amp;p=3030</wfw:commentRss>
		<slash:comments>3</slash:comments>
		</item>
	</channel>
</rss>
