Логин:
Пароль:
Сохранить логин и пароль
Для получения логина и пароля пишите на почту do@planetaklimata.com.ua
Страницы: 1 2 3 4 5 6 7 8 9 10



5 міфів про систему електроживлення та охолодження ЦОД



Здоровий глузд не завжди допомагає побачити правду. І особливо це відноситься до систем електроживлення та охолодження дата-центру. Багато популярних переконаннь, якими керуються оператори ЦОД у своїй роботі, насправді є міфами, і чіплятися за них не слід, так як це може перешкодити підвищенню ефективності використання енергії або економії коштів. Читайте далі, щоб дізнатися про п'ять помилок, пов'язаних з електроживленням ЦОД і охолодженням серверного обладнання.

Системи електроживлення та охолодження ЦОД

Випарне охолодження не придатне для регіонів з вологим кліматом

Відносна вологість дійсно впливає на ефективність випарного охолоджувача, але багато виробників допоміжного обладнання для ЦОД пропонують своїм клієнтам системи непрямого випарного охолодження, які здатні працювати в регіонах з підвищеною вологістю повітря. Вони характеризуються більш високою енергоефективністю і, відповідно, меншими експлуатаційними витратами в порівнянні зі стандартними кондиціонерами. Дана технологія передбачає використання теплообмінника в поєднанні з системою випарного охолодження, через що повітря, яке циркулює всередині ЦОД, не зволожується.

Охолодження випаровуванням може бути використано в поєднанні з кондиціонуванням повітря в межах гібридної системи. Деякі виробники стверджують, що використання непрямого випарного охолодження дозволяє вийти на економію електроенергії на рівні 95 відсотків порівняно зі стандартними кондиціонерами.

PUE є неефективною метрикою для оцінки енергоефективності ЦОД

Коефіцієнт ефективності використання енергії (Power Usage Effectiveness; PUE) є достатньо простою за своєю суттю метрикою, але від цього вона аж ніяк не стає неефективною. Більшість скептиків критикують PUE за те, що в деяких випадках виміряти цей показник може бути неможливо. Якщо дата-центр не буде обладнаний безліччю спеціальних лічильників, визначити, яка саме кількість електроенергії йде на живлення IT-обладнання, може бути досить непросто.

Через велику кількість складнощів оператори багатьох дата-центрів обмежуються виміром енергоспоживання обладнання лише декількох категорій (зазвичай, серверів і ДБЖ), при цьому в більшості випадків вони не вимірюють кількість електроенергії, споживаної системою охолодження ЦОД, а також не враховують втрати при передачі електроенергії. Нагадаємо, що чим нижче PUE, тим краще. Ідеальний коефіцієнт близький до 1.0. Якщо PUE в середньому за рік становить, наприклад, 2.9 одиниці, це означає, що дата-центр в цілому використовує в 2.9 рази більше енергії, ніж споживають сервери, СГД та мережеве обладнання всередині нього.

Експлуатація IT-обладнання в своєму власному приміщенні економить гроші

Великі і потужні дата-центри можуть споживати набагато менша кількість електроенергії з розрахунку на один центральний процесор, ніж невеликі ЦОД або окремі серверні кімнати. Провайдери хмарних сервісів або постачальники послуг по спільному розміщенню клієнтського серверного обладнання в комерційних дата-центрах (колокейшн), во влісності яких є серверні ферми з потужними і високопродуктивними системами охолодження, можуть домогтися рекордно високої ефективності використання енергії. Додамо до цього економію від масштабу, і вийде, що розміщення серверного обладнання в комерційних ЦОД або використання хмарних обчислювальних потужностей дозволяє корпоративним клієнтам мінімізувати витрати на обслуговування своїх бізнес-додатків, якщо порівнювати з невеликими корпоративними дата-центрами або серверними кімнатами. Не будемо забувати і про те, що останні звичайно є частиною будівель загального призначення, які проектувалися і зводилися без урахування можливості розміщення потужного IT-обладнання, що не дозволяє забезпечити оптимальне енергозбереження.

Чим холодніше, тим краще

Деякі люди стверджують, що розміщення серверів та іншого IT-обладнання в приміщеннях, де підтримується відносно низька температура, обернеться продовженням терміну корисної експлуатації подібного обладнання. Це правда: експлуатація обчислювальної систем при вищій, ніж рекомендує виробник, температурі може призвести до передчасної поломки. Проте, зниження робочої температури нижче того порогового рівня, який також вказаний в рекомендаціях виробника, аж ніяк не збільшує тривалість періоду корисної експлуатації «заліза».

Багато операторів ЦОД перестраховуються і намагаються підтримувати температурний режим всередині машзалів своїх дата-центрів на 5 - 10 градусів за Цельсієм нижче, ніж необхідно, щоб всі системи функціонували при температурі нижче максимально допустимої. Оптимізація течій повітря всередині ЦОД за допомогою «холодних» і «гарячих» коридорів, а також ряд інших прийомів подібного плану дозволяють підвищити середню температуру навколишнього середовища в машзалі дата-центру при одночасному зниженні експлуатаційних витрат та мінімізації ризику виходу IT-обладнання з ладу. Подібний варіант набагато раціональніше, ніж безперервне підтримання гранично низької температури всередині всього дата-центру.

Твердотільні накопичувачі допомагають значно знизити енергоспоживання ЦОД

Твердотільні накопичувачі (SSD) споживають менше енергії, ніж стандартні жорсткі диски (HDD) - особливо це порівняння слушно для високопродуктивних накопичувачів на жорстких магнітних дисках, що характеризуються швидкістю обертання шпинделя на рівні 10000 - 15000 обертів на хвилину. Проте, навіть під максимальним навантаженням жорсткий диск зі швидкістю обертання шпинделя на 15 000 оборотів в хвилину споживає всього близько 10 Вт. Це ненабагато вище в порівнянні з середньостатистичним SSD-накопичувачем корпоративного класу, що споживають близько 4 Вт.

Враховуючи той факт, що твердотільні накопичувачі коштують у середньому в 10 разів більше з розрахунку на один гігабайт ємності, ніж жорсткі диски, оператори / власники ЦОД навряд чи заощадять достатньо грошей на рахунках за електроенергію, щоб виправдати витрати на придбання схожих пристроїв. Вони можуть заощадити набагато більше, використовуючи більш ефективні процесори і джерела живлення.

 

Правила використання матеріалів сайту

Страницы: 1 2 3 4 5 6 7 8 9 10