EZ Compact 6, le futur backplane de votre NAS
Posted by NiTRo | Filed under Hardware, Performance, Test, ZFS
Comme nous, vous connaissez Icy Dock (une marque appartenant au groupe taiwanais Cremax Technology) depuis longtemps pour ses boitiers externe usb, ses adaptateurs 2.5″ > 3.5″ ou ses racks 3.5″ comme ceux utilisés dans les solutions LimeTech. Ce que vous ignorez peut être en revanche, c’est qu’il y a quelques temps déjà ils ont commercialisé un rack interne pour 4 disques ou SSD 2.5″ (sas et/ou sata) 100% métal qui tiens dans une baie 5.25″ :
Ok, rien d’exceptionnel si ce n’est le très bon rapport qualité/prix et un système de fermeture “eagle-hook” très efficace. En effet, 4 slots 2.5″ dans une baie 5.25″ tout le monde en fait depuis longtemps mais Cremax s’apprête à lancer un rack similaire avec une légère différence : il aura 6 slots. Oui vous avez bien lu, un rack 100% métal 6 slots 2.5″ dans une seule baie 5.25″ avec le même système ”eagle-hook” et un switch High/Low/Off pour la ventilation.
Nous avons eu l’immense privilège d’obtenir un sample afin de vous le faire découvrir sous toutes les coutures mais surtout dans ce pourquoi il a été conçu : un NAS ultra compact.
Tout d’abord, comparons notre EZ Compact 6 (son vrai nom c’est MB996SP-6SB mais Cremax France a accepté de lui donner un nom un peu plus sexy pour l’occasion) avec son petit frère :
Vous noterez que là ou l’EZ Compact 4 pouvait accueillir des disques ou SSD jusqu’à 15mm de haut, la version 6 slots ne peut évidement accueillir que des 9mm max. Heureusement, la majorité des unités 2.5″ font 9mm ou même 7mm pour les SSD récents.
On remarque également que la version 6 slots est plus courte de quelques centimètres qui pourront s’avérer précieux dans les encombrements les plus réduits (comme celui de notre NAS de test).
Concernant l’aspect refroidissement, nous avons mentionné la présence d’un interrupteur (présent également sur la nouvelle version de l’EZ Compact 4 -SATA- qui n’a plus qu’un seul connecteur molex) permettant de choisir le mode de fonctionnement (High/Low/Off) de l’unique ventilateur. Vous l’aurez deviné, les SSD sont donc un choix idéal pour ce rack.
Pour notre test, nous nous sommes procuré 6 SSD Intel 320 Series de 160Go afin de vérifier que notre nouveau backplane ne serait pas un goulet d’étranglement pour les configurations les plus extrêmes :
Et un HP Proliant MicroServer (aka N40L que notre ami vmdude.fr à testé avec 16Go de RAM) pour vérifier que l’encombrement du EZ Compact 6 puisse s’adapter aux configurations les plus compactes :
Comme vous pourrez le vérifier sur les photos, le N40L est très dense mais particulièrement bien conçu et où chaque cm3 d’espace est exploité ou exploitable car il est possible d’ajouter quelques options. Il y a en l’occurrence un slot PCIe 16x low-profile dans lequel nous avons installé une carte IBM ServeRAID-BR10i (chip LSI 1068E) très abordable et facilement trouvable sur ebay.
Nous avons presque eu du mal à passer les 2 cables SFF-8087 nécessaires pour relier le rack à la carte mais à l’inverse vous pouvez constater que l’EZ Compact 6 est parfaitement à l’aise dans cet environnement plus que condensé. L’emplacement 5.25″ étant prévu pour accueillir un lecteur optique générallement plus profond, on a même le luxe d’un peut d’espace libre derrière le rack :
On en croirait presque que l’EZ Compact 6 est fait pour le N40L tant l’intégration est “fluide”, à l’opposé on peut égallement rêver d’une configuration à base de Lian Li PC-A17B blindé d’un total de 54 SSD !
La carte BR10i que nous avons utilisé a l’avantage de présenter les disques directement à l’OS sans passer par une configuration RAID quelconque (IT mode). C’est donc tout naturellement que nous avons installé FreeNAS sur une clef usb et créé un beau zpool avec les 6 SSD en stripping. Nous aurions très bien pu choisir EON comme nous le recommande notre-pote-Rémi, l’expert ZFS en chef. D’autant plus que la dernière beta est basé sur Illumos, digne successeur fork d’opensolaris. Malheureusement Nexenta n’étant pas stateless, il ne sera évidement pas envisageable de lui consacrer 2 périphériques. ZFS oblige, nous avons du réduire au minimum l’ARC afin de ne pas solliciter la RAM lors des tests.
Pour ce benchmark, nous avons utilisé iozone qui est un outil bien connu dans l’univers du stockage. Parmi tous les tests disponibles, c’est évidement celui de la lecture qui aura permis d’atteindre les débits les plus importants dans notre configuration. Le test à été effectué sur une plage de 256Mo à 16Go pour la taille de fichier avec une plage de 16k à 16M pour le “record size”. Couplé à gnuplot, ça donne des beaux graphiques :
Sur les résultats du test read, on constate clairement un “effet de cache” sur les premiers résultats et une stabilisation autour d’1Go/s (~8Gb/s) sur tout le reste du test. On est donc très proches des capacités brut des 6 SSD en parallèle ce qui est tout à fait honorable et permet de confirmer que le backplane est largement capable de supporter des gros débits.
Conclusion, si vous chercher de quoi loger un maximum d’unité 2.5″ dans un minimum d’espace à un prix abordable (environ 100€ au lancement d’après Cremax France) sans sacrifier la qualité, ce rack est clairement le meilleur choix aujourd’hui. En face on a du supermicro à un tarif exorbitant ou du Thermaltake trop cheap et surtout indisponible sur le marché.
Tags: EZ Compact, FreeNAS, Icy Dock
September 18th, 2012 at 20:18
Joli bijoux…,
En plus avec les SSD’s, cela ne doit pas beaucoup chauffer. Cela donne des idées pour les homelabs..-:).
A+
Vladan
September 18th, 2012 at 21:52
Ah bah voila !
Mon prochain NAS est tout identifié !
September 19th, 2012 at 13:54
Jolis les graphes ! Les fichiers pour les générer sont dispo quelque-part ? Je me sers des classiques par défaut, qui ne rendent pas aussi bien
September 19th, 2012 at 14:16
@Vincent c’est ultra bidouillé par contre
files.hypervisor.fr/tmp/iozone_visualizer.pl
September 19th, 2012 at 17:00
En effet, il passe mal chez moi….
Output directory: report_SSD (removing old directory) done.
Preparing data files…done.
Generating graphs: randwrite”randwrite.do”, line 39: warning: No usable data in this plot to auto-scale axis range
splot “SSD.dat” using 1:2:8 title “SSD.dat”
“randwrite.do”, line 39: All points z value undefined
(failed) frewrite”frewrite.do”, line 39: warning: No usable data in this plot to auto-scale axis range
Snif.
September 19th, 2012 at 17:04
y faut faire tous les test avec iozone pour qu’il compute tout
September 19th, 2012 at 17:08
Le problème doit venir de mon fichier de sortie. Je redirige tout vers un fichier qui doit trop avoir de “blabla” quel switch de sortie utiliser ? -b ?
September 19th, 2012 at 17:25
Command line used: iozone -aecz -g 16g -s 16g -n 128m -y 1
September 21st, 2012 at 9:05
Snif. même avec cette commande j’ai les mêmes erreurs sur l’axe Z:
“write.do”, line 39: All points z value undefined
Peut-être mon gnuplot ? (4.4.3 et 4.6)
Je vais me plonger dans le script.
September 23rd, 2012 at 15:34
Oui moi aussi j’ai eu des soucis avec la syntax en fonction de la version. J’étais en 4.2 pendant le test je crois
September 27th, 2012 at 9:44
Ca y est, les scripts passent. Par contre la surface est décalée par rapport aux axes. Je suis en train de bidouiller les commandes passées à gnuplot, mais rien n’y fait
September 27th, 2012 at 10:42
Ca y est, il faut ajuster les xrange et yrange sans oublier les xtics et ytics
C’est nettement plus joli que les templates par défaut, merci !
September 27th, 2012 at 15:30
Tu nous fais partager tes résultats ?
September 27th, 2012 at 15:39
Pour commencer je suis parti de cette appliance: http://labs.vmware.com/flings/io-analyzer
Avec elle, le iozone_visualize.pl passe ainsi que le modifié. Au passage je la trouve pratique cette appliance pour stresser simultanément avec iometer différents ESX/Storages; bien que passer par wine pour faire tourner iometer sur du linux est un peu “capillotracté”
Revenous à nos moutons:
Le problème venait du xrange qui commençait a 262Mo alors que dans mes tests “raccourcis” je commençais à moins : la surface partait donc dans des x négatifs.
Donc selon la ligne de commande iozone utilisée il faut bien penser à revoir les range (voir à les supprimer, de manière plus brutale, ce qui marchera à tous les coups). Egalement adapter les [x|y|z]tics selon les incréments pour avoir une jolie échelle plus lisible.
Voili.
September 27th, 2012 at 15:43
ok, thx mais je pensais plutôt aux résultats
September 27th, 2012 at 15:47
Ca mouline toujours. Je suis sur un projet de passage de stockage local aux ESXi (RAID5 ou RAID10 selon les ESX) vers une consolidation sur une solution Nexenta
Je fais “quelques” bench pour comparer avant/après.
September 27th, 2012 at 15:50
Ah bah voila une bonne nouvelle !
September 27th, 2012 at 15:52
Surtout que hypervisor y est pour beaucoup C’est en parcourant les billets que j’ai découvert Nexenta et tout ce qui tourne autour (templates cacti, ZFS, …)
Ensuite je suis passé par la Community Edition et voilà !
September 28th, 2012 at 7:48
Content d’avoir pu faire profiter nos découvertes et que ça serve à rendre une infra plus résiliente
November 14th, 2012 at 19:12
Hello à tous.
Petite question (Newbie inside
Quand vous dites qu’on ne peut pas utiliser Nexenta car il n’est pas stateless… cela signifie ?
Merci !
Eric
November 14th, 2012 at 19:30
Bonjour Eric, en fait je veux dire qu’il n’est pas possible d’utiliser une clef usb comme device de boot et de faire en sorte que le system soit résident en ram comme EON ou freenas. Donc pour assurer un minimum de redondance, il faut dédier 2 drives ce qui représente une bonne partie des emplacements dispo dans cette config. Voila
November 14th, 2012 at 19:41
Aaaaaaaah ok !!
Et bien j’ai cherché pas mal de choses sur Nexenta, mais je n’avais pas pensé à cela, je pensais que c’était évident… je viens donc d’apprendre qu’on ne pouvait pas l’installer sur clé USB… j’ai honte ^^
Merci pour l’info !
November 14th, 2012 at 19:46
En fait, techniquement c’est possible mais c’est horriblement lent car il y a pas mal d’I/O sur le syspool de nexenta. La seule alternative possible serait d’utiliser un Disk On Module directement connecté à un port sata (http://www.memorydepot.com/ssd/listcat.asp?catid=SATADOM)
November 14th, 2012 at 19:56
Et bien c’est journée découverte pour moi, je ne connaissais pas les DoM non plus (je répète, gros newbie inside)
Ça m’a l’air pas mal du tout, je vais creuser le sujet. Encore merci pour ces infos !
November 14th, 2012 at 19:57
Tant que tu en apprends c’est que tout va bien Et juste pour info les DOM c’est cher
May 25th, 2013 at 13:44
Salut,
Je viens de commander un backplane pour mon Lab. Comme je n’ai pas de NAS je fais tout en local. A l’heure actuelle je dispose de 4 SSD (DATA) et 2 SSHDD (systeme) le tout en raid sous 2012 server.
J’ajouterai à cet article que la connectique est un problème éssentiel si comme moi vous avez d”ja utilisé 80% de ports de votre CM. Les cartes d’extention coutent un bras car emarquent souvent un contrôleur RAID.
Le backplane que j’ai retenu est le suivant : Raidon iS2880-8S-S2D il permet de plugguer jusqu’à 8 disques 2.5′ dans deux emplacements pour lecteurs optiques. En outre et cerise sur le gateau il suffit de deux connecteurs sata (un par lot de 4 disques) ce qui correspond au nombre d’emplacements qu’il me reste
Concernant le choix des disques j’hésites encore. SSD ou HDD (capa vs. perf/prix). peut-être m’orienterais’je vers un mix. Si vous avez des conseils je suis prenneur.
Je ferai un test sur mon blog une fois le matériel reçu et le choix des disques effectué.
May 25th, 2013 at 14:32
Sympa ce backplane en effet par contre il n’est pas donné ! Quid de la qualité et la nuisance sonore du produit ?
Personnellement je ne me risquerait pas à mettre des disques dans ce genre de backplane compte tenu de la densité mais un mix pourrais être un bon compromis.
May 27th, 2013 at 11:00
Bonjour je n’ai pas très bien compris le sens de votre phrase “je ne me risquerait pas à mettre des disques dans ce genre de backplane compte tenu de la densité”.
J’avais pensé un mix de 2 SSD de 120 Go et 6 HDD de 500Go. Que mettriez vous dedans à ma place ?
Cordialement,
V
May 27th, 2013 at 11:08
C’est au niveau de la température que j’ai des doutes mais si vous alternez 2hdd 1ssd 2hdd 1ssd 2hdd ça peut être une solution.
May 27th, 2013 at 11:10
détail important, le backplane que j’ai choisi est limité au SATA 2 pour la connectique hôte
May 27th, 2013 at 11:14
JE vais envisager une alternance de 4 SSD et 4 HDD alors (SSD 120Go).
May 27th, 2013 at 11:32
Ce n’est qu’une réflexion, vous aurez peut être des infos à ce sujet dans le datasheet constructeur.
May 30th, 2013 at 7:54
[...] à notre post sur l’EZ Compact 6 il y a quelques mois, nous avons été victimes de “l’effet SSD” qui donne l’impression que [...]
August 12th, 2013 at 14:46
[...] I recently got a nice deal on some SSDs, and such changed a bit my Storage environment for my nested/test labs. As I really don’t care about protection/backup for my “test/dev” labs I do have a similar setup to this one. [...]
January 24th, 2014 at 17:29
Bonjour,
je viens de découvrir le boîtier il y a quelques jours, j’en suis immédiatement tombé amoureux !
J’ai un blog perso sur l’administration systèmes / réseaux, et j’en ai profité pour faire une présentation (le blog est encore tout frais, pas énormément de posts, contrairement à hypervisor.fr !)
http://www.scalabilité.fr/26-hardware/71-pr%C3%A9sentation-du-bo%C3%AEtier-icy-dock-ez-compact-6-mb996sp-6sb
Moi aussi, j’avais décidé d’installer un HP Microserver N40L chez moi il y a deux ans (lien sur l’article), mais il semblerait que nous ne soyons pas arrivés à la même conclusion :
Vous avez installé une carte contrôleur ServeRAID-BR10i sur le Microserver, qui fonctionne en PCI Express x8 (sur le port x16 de la carte-mère donc)
Vous avez fait des tests iozone, en local je suppose ?
Mais comment gérez-vous la connectivité réseau, avec des performances tellement élevées ?
Il n’y a qu’une connexion Gigabit, de base, et un port PCI Express x1 supplémentaire.
On peut donc ajouter une carte réseau gigabit supplémentaire (perso, c’est ce que j’ai fait), mais je ne vois pas comment “rentabliser” les performances obtenues par la grappe SSD, même avec de l’aggrégation Gigabit.
Vous en êtes à 1 GO/s en moyenne en read, dans les 300-450 MO/s en write.
Et je ne vois pas comment ajouter des cartes plus rapides au N40L, type 10 GbE ou Infiniband sur le pauvre petit PCIE x1 …
Ai-je manqué quelque chose ?
Avez-vous réussi à contourner le problème, d’une façon ou d’une autre ?
January 24th, 2014 at 18:09
Bonjour Milosz, pas mal votre blog et l’url est sympa
Oui j’ai trouvé une façon de contourner le problème et je ne vais pas tarder à poster la “solution”.
En effet les tests iozone ont été effectué en local.
January 24th, 2014 at 18:57
Merci pour les compliments, ils me vont droit au coeur ! =)
Pour le moment, j’essaie de faire de mon mieux, de façon pédagogique, en présentant progressivement les choses.
Bientôt j’aborderai Varnish, puis je passerai à la haute dispo elle-même.
Ce qui me laisse quelques années avant d’arriver à un contenu de haut vol comme celui d’hypervisor.fr !
Si vous avez des remarques, elles sont les bienvenues !
Concernant la solution, j’ai hâte de la découvrir.
A vrai dire, j’ai aussi lu l’article sur l’infiniband, très intéressant, mais je ne vois pas comment concilier les deux sur le N40L.
Au plaisir de vous lire donc !
February 17th, 2014 at 18:57
[...] que nous pensions avoir fait le tour des possibilités du HP N40L N54L ProLiant MicroServer, nous somme tombé par hasard sur un post revisitant le fameux mod de BIOS, permettant [...]
April 24th, 2015 at 15:45
[...] y a bientôt 3 ans, nous testions le Backplane Icy Dock ToughArmor Full Metal 6 permettant de faire tenir 6 HDD/SSD 2.5″ de 7 à 9 mm dans un emplacement 5.25″ ce qui [...]