Ketika saya sedang bekerja di ruang server kami, saya perhatikan bahwa itu sangat dingin.
Saya tahu bahwa ruang server harus dingin untuk mengimbangi panas server, tetapi mungkin terlalu dingin.
Berapa suhu yang sesuai untuk menjaga ruang server kami?
datacenter
server-room
physical-environment
freddiefujiwra
sumber
sumber
Jawaban:
Rekomendasi pada suhu ruang server sangat bervariasi.
Panduan ini mengatakan bahwa:
Ini diskusi di Slashdot memiliki berbagai jawaban, tetapi kebanyakan mereka dalam rentang dikutip di atas.
Pembaruan : Seperti yang dikomentari oleh orang lain di bawah ini, Google merekomendasikan 26,7 ° C (80 ° F) untuk pusat data.
Juga American Society of Heating, pendingin dan AC Engineers (ASHRAE) baru-baru ini diperbarui rentang tempature direkomendasikan mereka berasal dari 18 ° C-27 ° C (64.4 ° F-80,6 ° F).
Namun artikel ini kembali menyoroti bahwa masih belum ada konsensus tentang masalah ini. Seperti yang disebutkan dalam artikel saya akan menyoroti bahwa:
Sebagian besar perusahaan IMO tidak akan memiliki pemahaman yang kuat tentang kondisi pendinginan dan dengan demikian akan lebih aman dalam lingkungan bisnis kecil untuk menjalankan kamar sedikit lebih dingin.
NB: Penting untuk dicatat bahwa ada banyak faktor yang perlu dipertimbangkan di server / ruang data selain dari suhu, aliran udara & kelembaban misalnya juga merupakan masalah penting.
sumber
Praktik terbaik pusat data Google merekomendasikan 80 derajat:
Kami berlari di 72, tapi sekali lagi saya tidak percaya kamar kami dirancang dengan aliran udara dalam pikiran.
sumber
Seperti yang orang lain katakan, di suatu tempat di 70-an F baik. Namun, lebih penting lagi untuk memastikan rak dan perangkat keras di dalamnya dapat "bernafas". Jika udara panas terperangkap di rak - atau di sasis server - maka suhu rendah tidak akan ada gunanya.
sumber
Ruang server saya diatur ke 69 derajat. Kami memiliki satu unit pendingin udara yang melayani ruangan itu dan beroperasi 24/7 untuk menjaga ruangan tetap 69 derajat sepanjang tahun.
sumber
Semua ruang server yang saya lihat biasanya antara 20 ° C dan 25 ° C tetapi dari pengalaman saya perhatikan perangkat keras lebih sensitif terhadap variasi lebih dari suhu yang diberikan. Saya sering melihat perangkat keras gagal setelah benjolan, misalnya 4-5 ° C, meskipun itu dari 20 hingga 25.
Jadi kestabilan adalah kuncinya, juga aliran udara tentunya.
sumber
18 ° C (65 ° F). Agak lebih dingin dari yang seharusnya, tetapi jika sesuatu gagal itu memberi kita beberapa menit ekstra berharga untuk bereaksi sebelum menjadi sangat panas.
sumber
Ingatlah bahwa saran Google untuk 80 ° F sebenarnya termasuk tidak ada biaya untuk mematikan pusat data ketika terlalu panas karena beban yang tidak terduga atau kegagalan pendingin udara. Mereka juga termasuk kontrol yang lebih besar dari aliran udara terhadap komponen-komponen penting.
sumber
Kami ingin milik kami berada di antara 19C dan 23C dengan alarm pada 28C - kami adalah 98% tempat blade HP sehingga jika kami mencapai tingkat alarm itu server / lampiran tertentu 'turunkan sumbunya' untuk menurunkan daya imbang keseluruhan ( ini disebut thermalogic).
sumber
Dalam pengalaman saya, itu tergantung pada peralatannya. Saya tahu satu perusahaan memiliki tiga ruang server. Satu disimpan sekitar 80 ° F, yang lain, dengan server lebih sedikit, berada di sekitar 72 ° F, dan yang ketiga, dengan hanya dua server, berada di sekitar 65 ° F. Tidak pernah memiliki masalah pada saat saya berada di sana, tetapi, seperti yang dikatakan orang lain, 75 ° F atau sedikit di bawah mungkin yang terbaik, karena memberikan sedikit ruang siku jika AC padam.
sumber
Lebih dari 30c di saluran masuk udara yang kami temukan menyebabkan peringatan suhu (yang kami pantau), Secara umum itu berarti suhu ruangan ambien di bawah 25c.
Di Australia, sepertinya Emerson (Liebert) memutuskan bahwa 21c akan menjadi standar dan setiap ruangan yang saya kunjungi di sini telah disetel sama.
Jika ruangan Anda cukup besar lihatlah hot-aise / cold-aise, blanking tiles, dan sejenisnya, mereka benar-benar dapat meningkatkan efisiensi pendinginan.
sumber
Saya di Angkatan Laut. Di kapal kami, kami menyimpan kamar kami di bawah 65 derajat Fahrenheit. Kami akan berada di tengah Laut Merah dan akan berada 120 derajat di luar. Kami keluar dari ruang angkasa (62 derajat) dengan sweter, sarung tangan, mantel, dan peacoat, dan semua orang akan melihat kami seolah kami gila. Semua orang ditelanjangi ke kaos dan berkeringat seperti orang gila.
Masalahnya adalah, sistem pendingin kami tidak menghilangkan kelembaban dengan sangat baik. Jadi, jika lembab di luar dan suhu naik hingga 70 derajat atau lebih mulai lengket di ruang.
sumber
Tidak ada jawaban yang sulit dan cepat untuk pertanyaan ini. Itu sangat tergantung pada jenis komputer dan desain pusat data.
Salah satu poin kunci yang dibuat dalam diskusi slashdot adalah bahwa kesulitan sebenarnya adalah berurusan dengan hotspot dan aliran udara .
Suhu ruang yang sejuk di dalam ruangan adalah cara mudah untuk mendinginkan ribuan titik panas di dalam ruangan. Tapi itu tidak efisien: Pusat data mendinginkan seluruh ruangan ketika semua yang benar-benar dibutuhkan adalah untuk mendinginkan bagian server yang panas (CPU, memori, penyimpanan, catu daya , dll). Banyak fasilitas colocation memiliki pelanggan dengan jenis perangkat keras yang berbeda (115V atau 208v, desain bagus, desain buruk).
Pusat data juga perlu mempertahankan udara dingin yang cukup untuk menyediakan penyangga jika terjadi pemadaman listrik . Penyangga udara dingin berarti UPS dan generator bekerja lebih sedikit. Bayangkan bahwa pusat data kehilangan daya 100% (Semua node turun, pendinginan juga turun) sekaligus. Node mungkin tidak memiliki daya, tetapi perangkat keras akan membutuhkan waktu untuk mendingin dan masih memancarkan panas untuk sementara waktu, dan ini dapat membuat pusat data sangat panas.
Organisasi dengan ruang server yang hangat sering menggunakan lemari tertutup dan saluran kerja mewah untuk mengarahkan udara dingin langsung ke node panas. Infrastruktur tenaga khusus dapat membantu mengurangi panas dari konversi daya. Ini membuat node cukup dingin, meskipun suhu di ruang server hangat. Organisasi-organisasi ini biasanya memiliki kontrol ketat terhadap sebagian besar aspek perangkat keras mereka, dan dapat merancang sendiri seluruh pusat data untuk kebutuhan mereka. Mereka dapat melakukan investasi dan menuai manfaat.
sumber
Pertama: di mana Anda mengukur suhu kamar? ;-) Apa suhu dingin pada rak? apa sisi rak panas di? apa suhu asupan A / C di?
Itu sangat tergantung pada perangkat. (rasakan panas yang keluar dari xbox) Manajemen termal adalah ilmu, Lihat Honda (dan banyak lainnya) mulai menyirami knalpot yang dingin ;-) ...
Saya akan memberitahukan ini kepada Anda, tentang pusat data yang pernah saya kunjungi:
Equnix tetap di sana dingin DC (membuat untuk 'pengalaman' yang baik ketika eksekutif tur)
RW membuat mereka tetap hangat / panas 80f atau lebih dengan udara yang cukup dingin keluar dari lantai (desain kamar / brankas yang lebih baik dan keseluruhan desain sistem dengan kualitas lebih tinggi)
Coresite (setidaknya di tempat saya berada) lebih dekat ke RW tetapi tergantung pada CR dan pelanggan. Beberapa CR di 80 beberapa di 70. (pulau dingin selalu dingin)
sumber
https://en.wikipedia.org/wiki/Data_center_environmental_control berisi ikhtisar menarik tentang rekomendasi suhu pusat data vendor:
sumber
Suhu yang Anda benar-benar ingin monitor adalah suhu server internal - bukan suhu lingkungan eksternal. Awasi suhu server Anda (semua server memiliki termometer internal yang melapor melalui antarmuka server) dan sesuaikan suhu sekitar Anda. Ini akan menjelaskan aliran udara, dll. Memiliki rencana pendinginan cadangan adalah ide yang bagus, bahkan unit A / C portabel dapat menjadi penyelamat jika ada kegagalan sistem pendingin primer.
sumber
Saya telah menemukan 19-21 suhu yang baik. Google menjalankan ruang servernya pada suhu yang sedikit lebih tinggi daripada yang Anda bayangkan karena mereka menemukan tingkat kegagalan yang sedikit lebih tinggi lebih baik daripada membayar ekstra dalam pendinginan.
sumber