NexentaStor 3.1.1 : VAAI gratis

Après un faux départ, NexentaStor 3.1 est enfin (re)disponible ! En plus des quelques nouvelles features et corrections de bug, la grosse bonne nouvelle c’est le support de VAAI pour ESXi 5+ (contrairement à ce qui avait été annoncé) y compris pour la version Community Edition. Ce qui en fait la toute première et seule solution VAAI gratuite, pour le mode block uniquement. Voici la liste des routines VAAI supportées :

  • SCSI Write Same (zeroing)
  • SCSI ATS (lock only the specific region on the LUN)
  • SCSI Block Copy (instruct the array to perform a block copy)
  • SCSI Unmap (return freed blocks in a zvol)

Je vous laisse imaginer l’intérêt d’une solution gratuite (jusqu’à 18To raw max pour la CE) supportant VAAI et reposant sur ZFS (ARC, L2ARC, in-line deduplication, in-line compression, snapshots and copy-on-write clones, RAID-Z, native NFSv4 ACLs, continuous integrity checking and automatic repair, …) face à toutes les appliances payantes du marché.

Et juste pour le plaisir des yeux :

Tags: ,

14 Responses to “NexentaStor 3.1.1 : VAAI gratis”

  1. Ça alors,

    je vais casser mon FreeNAS pour tester ça? Bien Possible… -:)

    Cela pouvais speeder pas mal mon labo, hein?

    -:)
    A+
    Vladan

  2. Te faire gagner de l’espace c’est certain, speeder ça va dépendre de la puissance de ta machine, de la quantité de ram et de comment tu configure tes zpool. Je te conseil de lire ce post pour en savoir un peu plus : http://vm.lc/zfs

  3. Ca fait plus d’un an que j’ai commence a jouer avec NexentaStorCE dans mon labo et c’est de la bombe !

    Bon j’ai utilise peut-etre que 10% de ses capacites aussi et en mode virtual appliance seulement :)

    J’ai bien envie de construire un unified storage a partir d’un HP MicroServer et de NexentaStoreCE, avec de gros disques SATA en RAID5 euh pardon RAIDZ, un SSD pour du ZIL/L2ARC et 8GB de memoire pour le ARC standard… Config de killer pour un home lab LOL

    Raphael sur quoi tu tournes ta CE?

  4. Moi je me suis fait plaisir, un bi-xeon avec 16GB + 4 SSD + 12 sata. Ça envoi bien :)

    Par contre, il faut faire attention à la dédup (on a eu le cas sur une appliance de qualif) et aux metrics arc_meta_limit/arc_meta_max grâce à la commande ‘echo ::arc | mdb -k| grep arc’ et si besoin changer la valeur avec la commande ‘echo “arc_meta_limit/Z 0×900000000″ | mdb -kw’ où 0×200000000 vaut 8GB.

  5. Ah ouais ca rigole plus la :)

    Merci pour l’astuce sur dedup…

    Ce qui me fait peur c’est si un disk pete dans mon RAIDZ, le temps que ca va mettre a reconstruire… Je sais que ca tient compte de l’espace utilise en fait mais avec mon bol le disk tombera a 90% d’utilisation :)

    As-tu deja fait des tests de reconstruction d’un RAIDZ et calculer le temps que ca prend avec le monstre que tu as?

  6. Dans ces cas la, c’est les perfs des disques qui compte mais pendant mes tests je trouvai ca assez rapide, nettement plus qu’avec un RAID classique en tout cas

  7. C’est clair que ça fait envie, la preuve, j’ai été conquis ^^
    Ne pas oublier :
    Having the troupoutre
    Always consistency on disk
    :p

  8. Salut,

    J’ai bien trouvé la 3.1.0 Community à télécharger (assez difficilement d’ailleurs !!) mais pas la 3.1.1.

    Quelqu’un aurait un lien à me fournir ?

    Merci

  9. Arf ok… la 3.1 est la 3.1.1.
    Désolé :)

  10. Raphael,

    Merci de l’info, j’avais peur que les VAAI ne soient que dans la version payante.
    En tout cas, pour ceux qui lisent, je confirme, c’est une SUPER solution proposant de nombreuses possibilités maintes fois évoquées (dédupe, Raid, cache, Zarc….), testée il y a peu, et qui remplacera avantageusement Openfiler et consorts dans mon Lab.

    @Didier : Le temps de reconstruction RAID augmente proportionnellement avec la taille des disques, plus ils sont gros unitairement, plus ca augmente le temps.

  11. Merci pour votre feedback Emmanuel ;)

  12. @Emmanuel – Oui en effet pour un RAID hardware traditionnel. Dans le cas d’un RAID sous ZFS, c’est surtout proportionnel a la quantite de data sur les disques car ZFS ne scanne pas tout les blocs mais seulement ceux qui contiennent des data…

  13. [...] : reboot des serveurs, on serre les fesses pendant le check consistency des 8 To de RAID-5 (vivement la migration sous le girafon !) et on regarde ce qui ne marche plus [...]

  14. [...] : servers reboot, keeping a tight ass during the 8 To RAID-5 check consistency (waiting for nexenta migration !) and just check what’s down [...]

Leave a Reply