System specifications Component Value Case Norco 4020 4U 20 bay servercase; CPU Intel C2D E8400, Arctic cooling Freezer 7 Pro RAM 8 GB DDR2 ECC Kingston Valueram; Motherboard Asus Serverclass motherboard P5BV-C/4L Operating system Operating system, Windows Storage Server 2008 R2 Enterprise Controller Areca 1280 ML, 24 poorts Sata2 controller, 2GB DDR 2 ECC Hard drive Indien meerdere types meerdere regels opnemen RAID array configuration Array 0: Boot Array 2x300GB Maxtor Raid 1, Array 1: 12x1TB Western Digital RE3 (@ Raid6), Array 2: 7x3TB Hitachi 7K3000 (@ Raid6); Netto storage capacity 32 TB Network Intel 1000VT PCI-e 4 x 1Gbit, Marvell Onboard 4 x 1 Gbit (Trunking) UPS Ja APC SmartUPS 3000 Filesystem NTFS Idle power usage 300 Watt, met Areca Spindown, All active 600 Watt Extra Corsair CMPSU-750TX, 750 Watt, Scythe Flex fans

Ik heb ongeveer +/- 3 jaar met een desktop "home" server gedraaid, maar ben kort geleden overgegaan op een MKB setup ;-)Het begon allemaal in eind 2005 en begin 2006.2 Promise TX4 PCI kaartjes erin en Linux Software raid5x300GB Maxtor Sata2Deze vervolgens uitgebreid naar 8x 300GBPrima servertje en voldeed uitstekend.Men wil echter meer ruimte, dus breder orienteren en naar de toekomst kijken.Stap 1 was een grotere betaalbare behuizing te vinden.Mijn keuze was toen gevallen op de Chieftec Mesh CA-01SL-SL-B. In mijn optiek nog steeds een ideale "low-cost" servercase, Ik heb van deze case ruim 2 jaar VEEL plezier van gehad.Ik zou geen tweaker zijn als de kast niet zou worden gemod!De spinnenwebben verwijderd om de fans stiller te maken. Ook heb ik filter matjes gemonteerd tegen de stof inname.Ook heb ik een 4 in 3 bay gemonteerd boven de voeding. Al met al resulterend in een case welke 20 hardeschijven kan huisvesten!Server 1 vs. Server 2Vervolgens al het oude materiaal overgeplaatst.Vervolgens is na +/- 1 jaar de kast uitgebreidt met een zelfgefabriceerde aluminium 12 in 1 casing voor harde schijven, op de plaats waar toen de 4 in 3 zat (heb hier helaas geen foto van). Dit gaf de chieftec een totale capaciteit van 28 schijven! Ook heb ik toen direct een upgrade uitgeveord en een Asus P5e-ws3 bord aangeschaf en eveneens C2D 6300. Als slagroom op de taaart een ARECA 1280ML 24 poorts raid controller aangeschaft incl. 2 GB. Ook werden er 12 x 500 GB Samsung schijven aangeschaft om de 12 in 1 bay op te vullen.Uiteindelijk is deze server uitgekomen op 10x 1 TB (Raid 6) en 12x 500GB (Raid 6) + 1x 120 GB boot (Raid 1).Resulterend in 16 TB (13 GB aan bruikbare opslag capaciteit).Begin 2009 was echt de druppel. Het werd nodig tijd om mijn computer park aan te pakken. Het was op zolder niet meer te doen qua warmte, om alles netjes te managen en de beschikbare ruimte. Ook had ik de nodige problemen met de NAS. Uitvallen van schijven beknelde kabels, gamele voeding. De setup was niet meer betrouwbaar en ik ergerde me groen en geel aan deze situatie.Inmiddels was mijn serverpark "hobby" uitgegroeid tot extreme proporties. Hieronder staat een overzicht van begin 2009.- Nas (Openfiler), C2D 6300, 2GB, 12x500GB, 10x 1TB (beide Raid6);- Firewall / Multiwan (pfSense), Athlon 750MHz, 512 MB, 40GB;- Gateway (clarkconnect), P4 1,7GHz, 1GB, 2x 120GB (Raid 1);- Download server, P4 2,66GHz (@2,82 GHz), 2GB, 2x 1TB;- HTPC, C2D Q6600, 2GB, 300GB;- Werk PC, X2 4200+, 2GB, 2x 74GB Raptor (Raid 0);- APC Smart UPS 3000- Dell 2716, 16 Poort gigabit switch;- Dell 2724, 24 Poort gigabit switch.En dan laat ik maar het stroomverbruik achterwegen....Al met al werd het tijd voor een drastische verandering.Ik had de volgende 3 doelstellingen.1. minder PC's, zelfde functionaliteit;2. beter management, op de toekomst gericht;3. verplaatsing van het computerpark van de zolder naar de garage (ruimte).Dus aanpakken die handel!Stap 1 orienteren mogelijkheden duurde ongeveer 2 maandenStap 2 spullen verzamelen duurde 4 maandenStap 3 bouwen en configureren 1 maand (2 weken van mijn vakantie aan opgeofferde)Ook heb ik geleerd van mijn verleden en had ik besloten om de portomonnae te trekken en het proejct groots aan te pakken. Ik heb gekozen voor A-Merk producten van goede kwaliteit en staat van dienst.Om doelstelling 1 en 2 te behalen:De bovenstaande machines heb ik gevirtualiseerd op 1 server, (met uizondering van de NAS en Dell 2716 switch). Ik kan zo gemakkelijk het overzicht behouden en waar nodig nieuwe machiens installeren. Gezien de machine een C2Q Q9550 als kern heeft en 8GB werkgeheugen heb ik hier voldoende overcapaciteit.Om doelstelling 3 te halen heb ik gekozen om de machines samen te voegen in 1 behuizing. Je komt dan automatisch uit op de industriele standaard van een 19 inch rack.Uiteindelijk is de keus gevallen op als lichaam een 42U HP Serverrack te kiezen.Ook heb ik een APC PDU aangeschaf om alle voedingsnoeren netjes te monteren.Voor de virtualisaite van de bovenstaande machines heb ik met een machine samengesteld gericht op de toekomst. Het SuperMicro board is werkelijk fantastich. Ook levert SuperMicro SERVICE! Ik had eerst problemen met ESXi op dit board (VT-x, VMDirectPath). Na een mail richting SuperMicro een Beta BIOS ontvangen welke alle problemen heeft verholpen. En dit alles binnen 24 uur!Server: Dreadnought- Supermicro C2SBX - Intel C2Q 9550 (@stock);- Arctic cooling Freezer 7 Pro;- 8GB DDR3 ECC Kingston Valueram;- 4GB USB Bootstick (ESXi 4.0);- 250GB Samsung Sata2 (Datastore Virtual Machines);- Corsair CMPSU-850HX, 850 Watt;- 1x Intel 1000 MT PCI-X 4x 1 GBit;- 2x Intel 1000 PT PCI-e;- 1x Intel 1000MT onboard;- Scythe Flex fans;- Operating system, VMware ESXi 4.0.Hier een screenshot van de ESXi consoleGezien mijn problemen met de vorige NAS heb ik ook hier besloten om het professioneel aan te pakken.De SAN is opnieuw opgebouwd met de volgende componenten:De oplettende lezer heeft gezien dat de 1280ML een 24 poort controller is. Echter heeft de Norco behuizing maar plaats voor maximaal 20 schijven. Ik heb deze behuizing dan ook gemodificeerd met een extra interne rail (achter de 4 fans). Op deze rail heb ik 6 extra schijven gemonteerd. Totaal 42 KG, schoon aan de haak. Om deze aanvulling koel te houden heb ik eveneeens een extra 8cm in de linker PCI sloten gemonteerd.Areca Webmanagement:Ook heb ik even een bench voor jullie gedraaid, gelet wel dat de SAN hier in gebruik is (fileserving en download) en er dus kleine dipjes zijn waar te nemenArray 1Array 2En een windows copy van array 1 naar array 2:Om overbelasting op de locale LAN op te vangen heb ik deze aangesloten met 2 lijnen op 802.3e Dynamic Link aggregation. Het hart van de installatie vormt een Dell 6224 switch. Gezien de nogal complexe infrastructuur (5 Wan's en Local Wan) is een geavanceerde switch een musthave! Gezien mijn download server (en alle overige servers) op dreadnought draaien is bandbreedte wel gewenst. Hiervoor heb ik zes Gbit lijnen gebundeld d.m.v. MPIO (Dedicated Vlan met Dreadnought, bandbreedte in totaal 6Gbit). De NAS wordt aangeboden d.m.v. iSCSI aan Dreadnought.Totaal trekt het geheel op bij vollast 600 Watt en idle rond de 450 Watt.Backup server (mirror van Dreadnought)Athlon64 X2 4200+DFI Lanparty Nforce44GB Kingston250GB SamsungOm het onderhoud verder te vergemakkelijken heb ik alle 3 de kasten voorzien van Kingslide slidingrails. Zo kan ik gemakkelijk alle kasten uit de kast schuiven en zo onderhoud plegen, upgraden etc.. De UPS is voorzien van een sliding tray om dezelfde bovenstaande reden.Ik kan nog wel een heel verhaal schijven over de voordelen van virtualisatie, infrastructuur en overige zaken, maar daar zitten wij niet op te wachten, aanschouw het resultaat:De beloofde foto's:Voorkant caseOverview caseAreca 1280MLVerankerde constructieBeugel constructie. In hoogte verstelbaar (ondersteuning van het extra gedeelte)3e extra Scythe S-Flex slotfanAan de linkerkant de 2 Boot disks in Raid 1 en rechts 4 WD RE3's van Array 1.Its a tight fitLichtshowEn als laatste twee videos:Op dit moment dus 24 TB (20 TB bruikbare capaciiteit).Volgende stap is de 1 TB's uit te faseren en over te gaan op 2 TB schijven.Op naar de 48 TB. . . . . .

[Voor 6% gewijzigd door lampie1979 op 26-09-2011 01:32]