ЭлКомЭлектрик

ООО

Вход






Ваша корзина пуста.

Рекомендуем

Новинка Rittal: SE 8. Все лучшее – теперь в виде отдельного шкафа.

Смотреть

ПечатьE-mail

Технологичное решение для энергоэффективного охлаждения центров обработки данных

Новости - Новости

Решение для охлаждения одной или двух стоек: система Rittal LCP Rack

Оптимальное решение для ЦОД. Охлаждение осуществляется на уровне рядов стоек, расположенных по принципу чередования изолированных холодных и горячих коридоров

Как эффективно охлаждать воздух в центре обработки данных? Этот вопрос как никогда актуален для организаций, эксплуатирующих ЦОД. Существует множество способов уменьшения энергопотребления ИТ-оборудования, что в конечном итоге сокращает эксплуатационные затраты. Тем не менее серверы, коммутаторы и другие устройства, входящие в ИТ-инфраструктуру, производят тепло, которое должно утилизироваться. Чтобы достичь максимальной энергоэффективности, необходимо оптимально согласовать между собой все компоненты инфраструктуры. Для этого следует тщательно рассчитать параметры и предусмотреть возможности точного регулирования этих параметров.

Энергоэффективное охлаждение современного центра обработки данных (ЦОД) — задача не из легких. В качестве меры энергоэффективности ЦОД часто используется коэффициент эффективности использования энергии (Power Usage Effectiveness — PUE). В большинстве случаев снизить потребляемую ИТ-системами мощность не представляется возможным, поэтому существенно повысить энергоэффективность, воздействуя непосредственно на эти системы, не удастся. Несколько по-другому обстоит дело с системами здания, которые необходимы для работы ЦОД: они, как правило, обладают огромным потенциалом энергосбережения. Наиболее важны в этом отношении, во-первых, правильно спроектированная система кондиционирования воздуха в помещении, а во-вторых, система жидкостного охлаждения с соответствующими параметрами и гидравлически согласованную. При проектировании системы кондиционирования воздуха необходимо руководствоваться не только стандартом DIN EN 13779 («Вентиляция нежилых помещений»), но также предписанием VDI 2054 («Вентиляционные системы для центров обработки данных») и стандартом ASHRAE (TC 9.9, директивы по поддержанию требуемой температуры при эксплуатации ЦОД). Предельные значения, приведенные в предписании VDI 2054, в основном совпадают с указанными в стандарте ASHRAE оптимальными значениями. Согласно этим документам, температура приточного воздуха в серверном помещении должна находиться в диапазоне 18–27 °C при относительной влажности воздуха 20–80 %. Чем более точно эти параметры окружающей среды будут адаптированы к конкретным условиям эксплуатации ИТ-оборудования, тем эффективнее будет отводиться тепло от стоек.

Точный расчет тепловой нагрузки

Системы вентиляции большинства современных центров обработки данных обеспечивают однократный воздухообмен в час, поскольку действующие стандарты не предусматривают наличия в ЦОД постоянного рабочего места. Если тепло ИТ-оборудования отводится непосредственно на уровне стойки, компоненты системы вентиляции должны быть рассчитаны только на кондиционирование воздуха в помещении. Совокупная тепловая нагрузка в центре обработки данных рассчитывается как сумма следующих параметров:

1) тепловая нагрузка, создаваемая установленным ИТ-оборудованием. Она может отводиться непосредственно на уровне стойки с помощью блоков охлаждения;

2) тепловая нагрузка, создаваемая источниками тепла в помещении (например, осветительными приборами и солнечным светом, попадающим внутрь через окна). С точки зрения охлаждения ИТ-систем эта нагрузка является внешней; она отводится посредством системы вентиляции помещения.

Для правильного выбора параметров воздухоохладителя системы вентиляции помещения необходимо точно рассчитать тепловую нагрузку согласно предписанию VDI 2078 с тем, чтобы система достаточно эффективно отводила тепло, вырабатываемое осветительными приборами и другими источниками тепла в помещении. То есть система вентиляции помещения не выполняет задачу по охлаждению собственно ИТ-оборудования. Если для оптимальной работы серверов требуется увлажнение приточного воздуха, в системе вентиляции помещения необходимо предусмотреть увлажнение паром. Этот способ увлажнения лучше соответствует гигиеническим требованиям к системам вентиляции помещений (см. предписание VDI 6022), чем непосредственное увлажнение на уровне стойки. При расчете совокупной тепловой нагрузки в ЦОД необходимо брать за основу потребляемую электрическую мощность всех установленных стоек. Например, если оборудование на стойке потребляет 18 кВт электрической мощности, максимально возможная мощность потерь тепла при полной нагрузке тоже составит 18 кВт.

Отвод тепловой нагрузки непосредственно в месте возникновения

Один из возможных способов целенаправленного отвода тепла от ИТ-оборудования — установка непосредственно на серверные стойки систем охлаждения с воздушно-водяным теплообменником. Система жидкостного охлаждения (Liquid Cooling Package — LCP) Rittal рассчитана на отвод мощности потерь тепла 10–55 кВт. Эти системы забирают нагретый воздух, отходящий от серверного оборудования, пропускают его через воздушно-водяной теплообменник и затем охлажденный воздух, подается в оборудование. Важным требованием к современным серверным помещениям является высокая плотность компоновки, поэтому все компоненты должны быть максимально компактными. Одна система LCP занимает площадь всего 0,36 м2. Высокая плотность компоновки нужна не только для минимизации занимаемой площади, но и потому, что при плотной компоновке эффективнее обобщается тепло, отходящее от установленных в стойку компонентов. Предположим, что заявленная производителем номинальная мощность тепловыделения коммутатора уровня ядра составляет 6 кВт. Типичная сверхкомпактная серверная система (так называемая блейд-система) может производить 4 кВт тепла. При монтаже пяти блейд-систем и двух коммутаторов уровня ядра на одну стойку совокупная тепловая нагрузка составит 32 кВт. В наши дни нередко можно встретить стойки с мощностью потерь тепла 18–24 кВт. Но это далеко не предел: например, в высших учебных заведениях каждая стойка отдает в окружающую среду еще больше тепла из-за огромной вычислительной нагрузки. Без высокоэффективного охлаждения температура в серверном помещении очень быстро бы повысилась . Многие системы выходили бы из строя по причине перегрева, что ставило бы под угрозу непрерывность бизнес-процессов.

При мощности тепловыделений до 5 кВт в расчете на одну стойку для эффективного охлаждения, как правило, достаточно системы кондиционирования воздуха в помещении ЦОД. Такая система забирает теплый воздух, отходящий от серверов, охлаждает его с помощью теплообменника и выбрасывает его в пространство под фальшполом. Через продольные отверстия или перфорацию в панелях фальшпола воздух снова поступает перед стойками с серверами. Как показывает опыт, при мощности тепловыделений до 5 кВт в расчете на одну серверную стойку и равномерном распределении вычислительной нагрузки в большинстве случаев используются системы охлаждения с фальшполом (одна система на весь ЦОД). При тепловой мощности 5–15 кВт применяется охлаждение на уровне рядов стоек. Если же речь идет о мощности тепловыделения свыше 15 кВт, в большинстве случаев используется непосредственное охлаждение на уровне стоек. Системы LCP подходят как для охлаждения на уровне рядов, так и для охлаждения на уровне отдельных стоек.

Охлаждение на уровне рядов стоек

При охлаждении на уровне рядов стоек серверные стойки в ЦОД, как правило, устанавливаются по принципу чередования холодного и горячего коридоров. Это значит, что передние стороны двух рядов стоек обращены друг к другу; между ними расположен так называемый «холодный коридор». В нем циркулирует холодный воздух, который подается соответствующими блоками охлаждения внутрь стоек и проходит через размещенное на них ИТ-оборудование. Задние стенки серверных стоек обращены в так называемые «горячие коридоры». Горячий воздух из них забирается блоками охлаждения, охлаждается и выбрасывается в холодный коридор. В зависимости от требований горячий или холодный коридор могут быть изолированы от окружающей среды с помощью соответствующих специальных решений. Это предотвращает смешение холодного и горячего воздуха, обеспечивая максимально возможную разницу температур с тем, чтобы блоки охлаждения работали с наибольшей эффективностью. Сверху коридор между рядами стоек перекрывается потолочными панелями; боковые проходы изолируются с помощью сдвижных дверей. Прозрачные потолочные панели пропускают достаточно света, поэтому дополнительное освещение холодного коридора не требуется. Эффективность системы зависит от надежного разделения зон холодного и горячего воздуха. Системы LCP монтируются между серверными шкафами и подают охлажденный воздух в холодный коридор. Воздух поступает на серверы через перфорированные двери шкафов, проходит через сервер, охлаждается и через заднюю дверцу и попадает в горячий коридор. Здесь система LCP снова забирает горячий воздух, охлаждает его и возвращает в холодный коридор. Если к охлаждению выдвигаются более строгие требования (то есть мощность тепловыделений превышает 15 кВт), системы LCP могут использоваться и для непосредственного охлаждения отдельных шкафов. В таком случае холодный воздух подается непосредственно в шкаф на уровнепередней 19” плоскости и удаляется из шкафа в задней ее части. Такая компоновка позволяет охлаждать несколько шкафов с помощью одной системы LCP.

Классы исполнения и возможность модульного расширения

Системы LCP поставляются в двух классах исполнения: 10–30 кВт и 40–55 кВт. Номинальные значения производительности охлаждения указаны при условии, что температура воды на входе составляет 15 °C. В зависимости от требуемой производительности устройства могут комплектоваться соответствующими вентиляторными модулями для точной адаптации системы к конкретным условиям тепловой нагрузки. Если оборудование в стойке добавляется , а значит растет совокупная мощность отходящего от компонентов тепла, можно с легкостью увеличить и производительность охлаждения LCP. Система LCP 30 кВт изначально укомплектована одним вентиляторным модулем, позволяющим отводить мощность потерь тепла 10 кВт. Для выхода на производительность охлаждения 30 кВт необходимо установить два дополнительных модуля. 30-киловаттную систему можно укомплектовать в общей сложности шестью вентиляторными модулями. При этом обеспечивается избыточность n+3 и снижается частота вращения отдельных вентиляторов. Если тепловой поток мощностью 30 кВт отводится с помощью трех вентиляторов, частота их вращения составляет 92 %. Если же используются шесть вентиляторов, это значение уменьшается до 49 %. Потребляемая мощность уменьшается на 46 % — еще один важный фактор для повышения энергоэффективности. Каждая система LCP оснащена автономной системой непрерывного точного регулирования температуры приточного воздуха, подаваемого в серверы. Можно настроить любую рабочую точку температуры приточного воздуха, то есть параметры воздуха всегда можно адаптировать к требованиям конкретных серверов.

Подведем итог. Большинство современных центров обработки данных содержат оборудование и программное обеспечение, стоимость которых исчисляется сотнями тысяч евро. Эксплуатационные затраты на обеспечение работы ИТ-систем и их охлаждение достигают десятков тысяч евро в год. Очевидно, что сокращение этих затрат необходимо для повышения экономической эффективности. Для этого в первую очередь необходимо оптимизировать охлаждение.

Рекомендуем

Наши партнеры:


Обратный звонок