Vraag Sla je een rack-unit over tussen servers?


Het lijkt erop dat er veel meelegevallen zijn als het gaat om het installeren van rack-mount servers. Er zijn discussies geweest over kabelarmen en andere accessoires voor rackmontage, maar ik ben nieuwsgierig:

Laat je een lege rekeenheid tussen je servers wanneer je ze installeert? Waarom of waarom niet? Heb je enig empirisch bewijs om je ideeën te ondersteunen? Is iemand op de hoogte van een onderzoek dat overtuigend aantoont of men beter is of niet?


67
2018-06-18 00:09


oorsprong




antwoorden:


Als uw servers voorwaartse doorstroomkoeling gebruiken, zoals de meeste rackgemonteerde servers, kan het achterlaten van gaten de koeling zelfs schaden. Je wilt niet dat de koude lucht een weg heeft naar het warme gangpad, behalve via de server zelf. Als u hiaten moet achterlaten (voor problemen met de stroomvoorziening, problemen met het vloergewicht, enz.), Moet u blinde panelen gebruiken zodat er geen lucht tussen de servers kan passeren.


81
2018-06-18 01:17



Ja, als u een gat laat, moet u het vullen met een paneel om dat te voorkomen. - Thomas
= 1. rack-mountservers en racks zijn ontworpen voor luchtstroom met alle panelen en bezels aan en alle u's zijn gevuld. net als de luchtstroom in een pc is ontworpen voor het hebben van alle covers op. het omzeilen van het ontwerp door gaten achter te laten en \ of panelen en kaften te verwijderen, zal waarschijnlijk meer kwaad dan goed doen. - joeqwerty


Ik heb rack-eenheden nooit overgeslagen in een kast. Als een fabrikant me opdroeg om U's tussen apparaten over te slaan, zou ik dat doen, maar ik heb nog nooit zo'n aanbeveling gezien.

Ik zou verwachten dat elk apparaat dat is ontworpen voor rekmontage, zijn warmte zou afvoeren via de voor- of achterpanelen. Er zal wat warmte door de rails en boven- en onderkant van het chassis worden geleid, maar ik zou verwachten dat dit erg klein is in vergelijking met de straling van de voor- en achterkant.


23
2018-06-18 00:17



Als u rackeenheden overslaat, moet u zelfs covers tussen elke server gebruiken, anders krijgt u luchtvermenging tussen uw hoge en koude gangpaden. - Doug Luxem


In ons datacenter laten we geen gaten achter. Er komt koele lucht uit de vloer en gaten zorgen voor problemen met de luchtstroom. Als we om welke reden dan ook een opening hebben, bedekken we die met een lege plaat. Het toevoegen van lege platen maakte onmiddellijk de toppen van onze koude gangpaden kouder en onze hete gangpaden warmer.

Ik denk niet dat ik de gegevens of grafieken meer heb, maar het verschil was heel duidelijk zodra we begonnen met het aanbrengen van wijzigingen. Servers aan de bovenkant van de rekken stopten met oververhitting. We zijn gestopt met het koken van voedingen (wat we aan het doen waren met ongeveer 1 per week). Ik weet dat de wijzigingen zijn gestart nadat onze datacenter-manager terugkwam van een Sun green datacenter-expo, waar hij in sommige seminars zat over koeling en dergelijke. Daarvoor gebruikten we openingen en gedeeltelijk gevulde rekken en geperforeerde tegels in de vloer aan de voor- en achterkant van de rekken.

Zelfs met de managementarmen op hun plek is het elimineren van openingen beter verlopen. Al onze interne servertemperaturen overal in de ruimte liggen nu ruim binnen de specificaties. Dit was niet het geval voordat we ons kabelbeheer hebben gestandaardiseerd en de gaten hebben weggenomen en onze plaatsing van vloertegels hebben gecorrigeerd. We willen graag meer doen om de hete lucht terug te sturen naar de CRAC-eenheden, maar we kunnen nog geen financiering krijgen.


20
2018-06-18 02:46





Ik sla Ons niet over. Wij huren en wij kosten geld.

Geen reden om tegenwoordig te verwarmen. Alle koele lucht komt aan de voorkant en uit de achterkant. Er zijn geen ventilatiegaten meer in de toppen.


9
2018-06-18 01:30



Re: "Wij hebben geld gekost." Ik denk dat ruimte een belangrijke factor is in de prijsbepaling van datacenters. Toen kreeg ik een baan in de hostingsector, blijkt dat de meeste kosten in een Colo-omgeving afkomstig zijn van stroomcircuits en cross-connects. - JamesBarnett


Google verlaat U niet tussen servers en ik vermoed dat ze zich zorgen maken over hittebeheer. Altijd interessant om te kijken hoe grote spelers het werk doen. Hier is een video van een van hun datacenters: http://www.youtube.com/watch?v=zRwPSFpLX8I&feature=player_embedded

Ga direct naar 4:21 om hun servers te zien.


6
2018-06-18 10:54





Verlaat geen ruimte als je koele lucht van de vloer laat komen en gebruik ook lege ruimtes in ongebruikte ruimte. Als u alleen een low-tech koelsysteem hebt dat een standaard a / c-unit gebruikt, is het het beste om gaten open te laten om hotspots te minimaliseren wanneer u warme servers samengeklonterd hebt.


5
2018-06-18 02:28



Als uw servers koeling van voor naar achter gebruiken, is het helemaal niet verstandig om openingen te laten, dit zal de luchtstroom beschadigen. - pauska


We hebben 3 1/2 racks aan clusterknooppunten en opslag in een colocatiefaciliteit. De enige plaatsen waar we U's hebben overgeslagen, is waar we de netwerkbekabeling moeten routeren naar het centrale rack waar de kernclusterschakelaar zich bevindt. We kunnen het ons veroorloven om dit ruimtewaardig te doen, aangezien de racks al maximaal zijn qua vermogen, dus het zou niet mogelijk zijn om meer knooppunten erin te proppen :)

Deze machines draaien 24/7 op 100% CPU, en sommige hebben tot 16 kernen in een 1U-box (4x quad-core Xeons) en ik heb nog steeds geen negatieve effecten gezien van het niet laten van spaties tussen de meeste.

Zolang je uitrusting een goed ontworpen luchtpad heeft, zie ik niet in waarom het ertoe zou kunnen doen.


5
2018-06-18 01:34





Ik heb grote openingen boven mijn UPS (voor de installatie van een tweede batterij in de toekomst) en boven mijn bandenbibliotheek (als ik er nog een nodig heb). Verder heb ik geen gaten en gebruik ik panelen om lege ruimtes op te vullen om de luchtstroom te behouden.


5
2018-06-18 10:36





Elke derde, maar dat komt door management armen en de noodzaak om er omheen te werken in plaats van te verwarmen. Het feit dat die servers elk hebben 6 Cat5-kabels die naar hen toe gaan, helpen niet. We maken zwaar gebruik van afsluitpanelen en luchtdammen bovenop de racks om hercirculatie vanuit de warme gang te voorkomen.

Ook een ding waar we in ons datacenter niet aan ontbreken, is ruimte. Het was ontworpen voor uitbreiding toen 7-10U-servers standaard waren. Nu we met rack-dichte ESX-clusters zijn gegaan, is het een spookstad.


3
2018-06-18 00:26



OK, 6 kabels, laten we eens kijken ... 2 beheerinterfaces, 2 iscsi-interfaces en 2 .... speciaal voor de clustermanager? - Matt Simmons
Gebruik geen managementarmen en je hoeft eenheden niet over te slaan. :) - Doug Luxem
6 kabels: 1x HP iLO-kaart, 1x ESX mgmt LUN, 4x VM Luns. Ook vezels voor de SAN. We zijn nog geen iSCSI gegaan. Als we bereid waren de servers volledig uit te kleden voordat we ze eruit trokken, zouden we zeker zonder de armen gaan. - sysadmin1138♦
Na je datacenter te hebben gezien, moet ik me afvragen of je de dingen in een traditionele opstelling met koude gangpaden in plaats van verspreid in je gigantische kamer instelt als je betere thermische prestaties zou krijgen. - Laura Thomas