IXcellerate предлагает индивидуальные решения для размещения высокопроизводительной ИТ-инфраструктуры.
На этапе подготовки мы учитываем все необходимые технические характеристики и требования для выполнения SLA и минимизации рисков аварий. Собственная экспертиза и проверенные на практике инженерные решения обеспечат бесперебойную работу вашего оборудования.
Готовые решения для высоконагруженного размещения до 55 кВт на стойку
Общая энергомощность 380 МВт
Выделенные машзалы для суперкомпьютеров и решений на базе ИИ
Возможность масштабирования размещение от 1 стойки до 1000+
Ежесекундный мониторинг инфраструктуры и контроль периметра
Единый сетевой контур (интер-коннекты)
Эффективный теплоотвод
за счет фрикулинга и низкоскоростного охлаждения (система LSV)
Готовность к повышенным температурам воздуха на выходе из серверов
Условия успешного
запуска в ЦОД
Инфраструктура для
высокопроизводительных
вычислений
размещения
Высокопроизводительные серверы требуют большего количества сетевых линков и интер-коннектов, поэтому размещение стоек в машзале отличается от классической рядной системы: расстояние между стойками варьируется в зависимости от нагрузки (суперкомпьютер) и функционала (коммутация).
охлаждения
При проектировании высокоплотных вычислений учитывается тепловыделение всего зала для исключения перегрева отдельных зон. В зависимости от технических решений (на основе фальшпола или «холодных стен») ширина холодного и горячего коридоров может быть увеличена с учетом необходимого объема воздуха.
Решения на основе низкоскоростной циркуляции воздуха (LSV, Low Speed Ventilation) позволяют более эффективно охлаждать сервера без необходимости применять межстоечные кондиционеры. IXcellerate поддерживает автономное холодоснабжение инженерных систем за счет фрикулинга и адиабатики.
резервирования
В рамках одной стойки возможна установка нескольких blade шасси и дисковых полок без необходимости организации межстоечных соединений. Такая схема упрощает построение вычислительного узла и его дальнейшую эксплуатацию, а также снижает издержки на сетевые сервисы, СКС и обслуживание инфраструктуры.
-по охлаждению
электропитание
Отзывы
Поставьте нам оценку
Поставьте нам оценку
Роман Собовой
10.08.2024
Остались вопросы?
Эта тенденция связана с новыми цифровыми реальностями: ежедневным запуском новых цифровых проектов, ростом популярности искусственного интеллекта и нейросетей, увеличением объема данных. Скорость и круглосуточный доступ становятся главными показателями качества онлайн сервисов.
Производительность вычислений увеличивается и требует более мощных процессоров и серверов. Инфраструктура, построенная для классических вычислительных сред, не может обеспечить необходимого электропитания и охлаждения для серверов нового поколения.
Максимальное количество тепла, которое должна рассеивать система охлаждения современного чипа (Thermal Design Power) достигает 300 Вт. Производители процессоров анонсируют планы по увеличению тепловой мощности до 400+ Вт на чип в ближайшие 3-5 лет. Для соблюдения температурного режима в стандартной стойке (5-7 кВт) возможно установить не более 7-10 серверов с процессорами нового поколения, а для соблюдения температурного режиме в машзале − отодвинуть стойки друг от друга.
Чтобы обеспечить ультрабыстрый доступа к общей памяти таких систем, требуется множество сетевых соединений, что увеличивает расходы заказчиков на организацию СКС и управление ИТ-инфраструктурой и затрудняет процесс обновления платформы на более производительные и энергоёмкие решения.
Могут, но с потерей полезной площади машзала. Высокопроизводительные сервера требуют большего количество сетевых линков и интерконнектов, поэтому размещение высоконагруженных стоек в машзале отличается от классической рядной системы: расстояние между стойками варьируется в зависимости от нагрузки (суперкомпьютер) и функционала (коммутация). Стойки высокой нагрузки и обычные стойки нельзя размещать рядом или строго напротив друг друга во избежание дефицита притока холодного воздуха.
Прежде всего необходимо уточнить, располагает ли дата-центр инфраструктурой с гарантированным энергоснабжением до 55 кВт на стойку, и сможет ли он обеспечить бесперебойную работу ваших ИТ-платформ в долгосрочной перспективе, какова доступная энергомощность самого ЦОД?
Другими словами – есть ли у него возможность поддержать масштабирование уже размещенных ресурсов и запуск новых цифровых проектов? При этом заявленной мощности должно хватить не только на поддержку клиентского оборудования, но и на обеспечение бесперебойной работы собственной инженерной инфраструктуры в соответствии с показателем энергоэффективности (PUE).
Также важно обратить внимание на схему распределения нагрузки, схему резервирования и другие параметры ЦОД, которые напрямую влияют на уровень его надежности и отказоустойчивости.
Николай Викол
29.12.2021