B.2Аппаратное обеспечение Вычислительного комплекса и прочее оборудование B.2.1.3.1Общие требования
Как минимум все аппаратное обеспечение, поставляемое в рамках данного конкурса, должно удовлетворять следующим требованиям:
-
Все функции, описанные в п. B.2, должны быть реализованы.
-
Должно быть предусмотрено все необходимое оборудование и программное обеспечение (в том числе явно не обозначенное в Технических требованиях) для реализации функций обозначенных в п.B.2.
Все активное оборудование Вычислительного комплекса должно иметь встроенные аппаратные средства удаленного управления, позволяющие осуществлять конфигурирование, останов, запуск и/или перезапуск системы или отдельного элемента посредством защищенного интерфейса из сети мониторинга и управления. Сеть мониторинга и управления должна поставляться и устанавливаться вместе с остальным оборудованием Вычислительного комплекса.
Все аппаратные средства СКТП и СБЭ должны иметь встроенные аппаратные средства удаленного управления, позволяющие осуществлять конфигурирование и мониторинг системы или отдельного элемента посредством интерфейса из сети мониторинга и управления. Все аппаратные средства СКТП и СБЭ должны содержать все необходимое оборудование и инфраструктуру для включения в сеть мониторинга и управления.
Вычислительный комплекс должен удовлетворять требованию максимальной готовности. Под термином «максимальная готовность» в данном случае понимается следующее: в случае выхода из строя любого узла или компонента системы (аппаратного или программного), система должна автоматически выявить сбой и принять все меры к самовосстановлению и переконфигурированию. Пользовательские процессы, прерванные сбоем узла, могут не восстанавливаться автоматически. Потеря целостности данных параллельной файловой системы не допускается.
В случае выхода из строя узла/узлов Вычислителя или любой части коммуникационной сети MPI, или части дисковой подсистемы, оставшиеся узлы Вычислителя должны автоматически сохранить доступ ко всей информации, хранящейся в Дисковых системах хранения данных.
Должна быть обеспечена возможность для инженеров сопровождения, выполняющих диагностические или ремонтные работы над любой подсистемой, выполнять работы без прерывания основных оперативных функций и снижения производительности Вычислителя более чем на 25%.
B.2.2.3.1Вычислитель #1
Вычислитель представляет собой набор вычислительных узлов, объединенных с помощью высокопроизводительного механизма взаимодействия (сеть для MPI коммуникаций/интерконнект).
Как минимум, Вычислитель должен удовлетворять следующим требованиям:
-
Совокупная пиковая производительность Вычислителя по тесту Linpack должна составлять по методике, применяемой для измерения этого значения TOP500.org (значение Rpeak):
1,2 PFlops.
-
Максимальная достигнутая производительность по тесту Linpack Вычислителя должна составлять по методике, применяемой для измерения этого значения TOP500.org (значение Rmax):
0,9 PFlops.
-
Вычислитель должен обеспечивать выполнение приложений написанных с использованием библиотек MPI версии 3.0.
-
Все вычислительные узлы должны быть идентичны.
-
Вычислительные узлы должны быть исполнены в форм-факторе серверов-лезвий и устанавливаться в общее шасси. В одном лезвии допускается установка не более 4-х вычислительных узлов, в одном шасси – не менее 12 вычислительных узлов.
-
Вычислитель должен иметь систему жидкостного охлаждения, удовлетворяющую следующим требованиям:
-
Охлаждение горючими и химически активными веществами не допускается.
-
Не допускается непосредственный контакт охлаждающей жидкости с электронными компонентами вычислительных узлов.
-
Использование эффективного охлаждения (без использования чиллеров) до тех пор, пока температура наружного воздуха остается ниже 28°C.
Компоненты вычислительных узлов должны функционировать без снижения производительности.
-
Должна быть обеспечена защита от непреднамеренной протечки жидкости в случае остановки или отключения элементов вычислительного комплекса.
-
Подключение и отключение серверов-лезвий без остановки любого из других серверов-лезвий.
-
Теоретическая пиковая производительность вычислительного узла должна составлять не менее:
1TFlops.
-
Каждый узел должен содержать оперативную память с поддержкой алгоритмов контроля четности и исправления однобитовых ошибок со следующими характеристиками:
-
частота не менее 2400 MHz.
-
объем не менее 4 GB на каждый процессор.
-
модули памяти должны быть установлены так чтобы равномерно использовать все доступные каналы для максимальной производительности.
-
все модули памяти в вычислительном узле должны быть идентичны.
-
Каждый узел должен иметь системные жесткие твердотельные диски SSD с объемом 200 GB.
Допускается бездисковая конфигурация, при этом должно быть предусмотрено все необходимое оборудование для обеспечения работы в отказоустойчивом режиме для организации загрузки ОС на вычислительные узлы.
-
Для вычислительных узлов должно быть реализовано выполнение следующих операций, инициируемых со стороны любого управляющего узла системы:
-
набор операций совместимый с протоколом IPMI версии 2.0 или выше.
-
селективный аппаратный сброс (hard reset) любого узла или группы узлов.
-
селективное включение/отключение электропитания любого узла или группы узлов (power cycle).
-
чтение кода результата тестирования состояния узла (Power-On Self Test , POST).
-
обновление микрокода BIOS на одном и всех узлах Вычислителя одновременно.
-
чтение значения моментального энергопотребления узла, процессорных чипов.
-
установка ограничения энергопотребления узла: после установки максимального предельного значения узел должен снизить уровень потребляемой электрической мощности до установленного лимита.
-
чтение значения температуры или термального запаса для каждого процессорного чипа.
-
Узлы Вычислителя должны иметь функционал предотвращения катастроф: узел должен полностью самостоятельно выключаться при выходе значений температуры за рамки диапазона рабочих температур установленные Производителем для данных узлов.
-
Каждый процессор вычислительного узла должен быть оригинальным 64-х разрядным скалярным процессором. Все процессоры в узле должны быть идентичны.
-
Архитектура набора команд процессора должна быть совместима с x86-64 с векторными расширениями.
-
Объем кэш-памяти каждого процессорного чипа должен составлять не менее 25 MB.
Теоретическая пиковая производительность одного процессора должна составлять не менее 35 GFlops.
Каждый узел должен иметь доступ к Дисковой системе хранения данных #2 через параллельную файловую систему. Производительность Дисковой системы хранения #2 (тест E.3.6) должна быть не менее значений, указанных в сопроводительной документации к тестированию.
Каждый узел должен содержать MPI-интерфейс, а Вычислитель Коммуникационную сеть MPI, с характеристиками не хуже, чем указанные в сопроводительной документации к тестированию и измеренными на тестах п. E.3.3.
Коммуникационная сеть MPI должна обеспечивать объединение, как минимум, всех вычислительных узлов в единую высокопроизводительную сеть. Топология сети должна обеспечивать полное использование полосы пропускания от всех подключенных вычислительных узлов, т.е. каждый элемент (например, коммутатор) в топологии должен иметь ту же или лучшую производительность к сети, чем сумма производительностей подключенных узлов. Топология должна быть одинаковой для всего Вычислителя.
Транспортная сеть должна обеспечивать объединение всех вычислительных узлов для доступа к дисковым системам хранения.
Должна обеспечиваться одновременная работа коммуникационной и транспортной сетей по раздельным интерфейсам. Топологии коммуникационной и транспортной сети должны быть идентичны.
Высокопроизводительные коммуникационная и транспортная сети должны обеспечивать пропускную способность каждого линка на уровне не менее 80 Gbps.
Количество корневых коммутаторов в каждой из указанных выше высокопроизводительных сетей (при наличии в топологии) должно быть не менее 2-х.
Коммуникация узлов (электропитание, интерконнект, ЛВС) в шасси реализуется без использования кабелей. При использовании центральных корневых коммутаторов-директоров интерконнекта допускается использование прямых кабельных соединений.
Коммуникационная сеть должна быть построена по схеме без единой точки отказа, обеспечивая объединение пропускных способностей интерфейсов или, в случае отказа, автоматический механизм переключения между интерфейсами вычислительных узлов.
Выделенная сеть мониторинга и управления Вычислителя реализуется по схеме без единой точки отказа со скоростью не менее 1Gbps.
Продолжительность перевода Вычислителя из рабочего режима в состояние «отключение питания» не должна превышать 15 мин. Продолжительность перевода Вычислителя из состояния «отключение питания» в рабочий режим не должна превышать 20 минут.
Единичный отказ блока питания и/или активного элемента охлаждения не должен приводить к выходу из строя узла.
-
Система охлаждения вычислительных узлов Вычислителя должна обеспечивать надежность и доступность:
-
в составе вычислительных узлов должны отсутствовать элементы с механически движущимися в процессе работы частями, такие как жесткие диски, вентиляторы, и пр.
-
единичный отказ элемента охлаждения не должен приводить к выходу любого из узлов группы серверов-лезвий.
-
проведение регламентного обслуживания элементов системы охлаждения Вычислителя должно осуществляться без останова вычислительных узлов.
Время выполнения представленного Получателем теста на основе глобальной спектральной модели (п. E.3.7.1) для минимальной конфигурации, требуемой к тестированию (п. E.3.1) должно быть не более значения, указанного в сопроводительной документации к тестированию.
Время выполнения представленных Получателем тестов на основе глобальной конечно-разностной модели SLM (п. E.3.7.2) для минимальной конфигурации, требуемой к тестированию (п. E.3.1), должно быть не более значений, указанных в сопроводительной документации к тестированию.
Время выполнения тестов на основе модели COSMO (п. E.3.7.3) для минимальной конфигурации, требуемой к тестированию (п. E.3.1), должно быть не более значения, указанного в сопроводительной документации к тестированию.
B.2.2.1Системная консоль #1 Вычислителя
Вычислитель должен поставляться с одной Системной консолью #1 (кластер), которая должна удовлетворять, как минимум, следующим требованиям:
-
Системная консоль #1 Вычислителя должна обеспечивать выполнение функций консоли для Вычислителя и всего серверного оборудования Вычислительного комплекса и включать все необходимое для этого оборудование;
-
Функции управления оборудованием до загрузки операционной системы должны быть обеспечены (в том числе работа с BIOS, состояние отключенное питание, креш ОС).
-
Должен быть обеспечен монтаж в стойку.
-
Предустановленная ОС Вычислителя с оптическим диском дистрибутива.
-
DVD дисковод.
-
Подключение к ЛВС для организации удаленного доступа.
-
TFT-монитор, активная матрица, размер экрана не менее 17" по диагонали в конструктиве 1U.
B.2.2.2Системная консоль #2
Системная консоль #2 дублирует функции Системной консоли #1 Вычислителя, располагается вне помещения размещения Вычислительного комплекса, включает в себя Системный блок#1 и Монитор#1
Как минимум, Системный блок#1 должен удовлетворять следующим требованиям:
-
1 (один) 64 разрядных процессорный чип;.
Пиковая производительность каждого процессорного чипа – 30 GFlops;
ОЗУ – 8 GB;
1(один) НЖМД SAS 10k, емкостью 600 GB или 2(два) НЖМД SATA, емкостью 1 TB каждый с зеркалированием;
1 комбинированный CD/DVD привод;
1 сетевой адаптер – интегрированный RJ-45, Ethernet 10/100/1000 Base-Т;
2 свободных порта USB 2.0;
1 последовательный порт;
Стандартная клавиатура 101 key Rus/ Lat
Оптическая мышь с колесом прокрутки, коврик для мыши;
Предустановленная ОС – ОС Вычислителя с инсталляционным диском.
Как минимум, Монитор#1 должен удовлетворять следующим требованиям:
-
Тип – цветной, активная матрица TFT;
Размер экрана – 20" по диагонали;
Размер пикселя – не более 0.26 mm;
Контраст –700:1;
Яркость – 300 cd/m2;
Разрешение – 1600x1200, 60 Hz;
Максимально допустимое количество неисправных пикселей – class II по стандарту ISO 13406-2;
Встроенный источник питания;
Стандарт излучения и экологической безопасности – TCO-03
Монитор#1 должен быть совместим с Системным блоком#1.
Монитор#1 должен поставляться вместе с интерфейсными кабелями.
B.2.2.3Система FRONT-END Вычислителя
Как минимум, Система должна удовлетворять следующим требованиям:
Система организуется для обеспечения единой точки входа для пользователей, организации среды трансляции и т.д.
-
Система должна быть организована:
(М) – в виде кластера без единой точки отказа, который базируется на конфигурации Сервер #1 (п.B.2.9.1)
(Р) – на базе конфигурации Сервер #1 (п.B.2.9.1)
Операционная система – ОС Вычислителя.
Запуск задач на Вычислителе должен организовываться через систему пакетной обработки заданий.
Не допускается реализация других сервисов и систем на аппаратной платформе данной системы.
B.2.2.4Система пакетной обработки заданий
Как минимум, Система должна удовлетворять следующим требованиям:
-
Система организуется для обеспечения контролируемого запуска задач на ресурсах вычислительного комплекса.
-
Система организуется в виде кластера без единой точки отказа, который базируется на конфигурации Сервер #2 (п. B.2.9.2).
Сервис системы пакетной обработки заданий также должен быть задублирован.
Не допускается реализация других сервисов и систем на аппаратной платформе данной системы.
B.2.2.5Система управления лицензиями
Как минимум, Система управления лицензиями должна удовлетворять следующим требованиям:
-
Система должна организовываться для обеспечения централизованного управления лицензиями программного обеспечения, установленного на ресурсах вычислительного комплекса.
-
Система должна организовываться в виде кластера без единой точки отказа, который базируется на конфигурации Сервер #2 (п. B.2.9.2).
Предустановленная операционная система должна быть идентична ОС Вычислителя.
B.2.3.3.1Вычислитель (Р)
Вычислитель представляет собой набор вычислительных узлов, объединенных с помощью высокопроизводительного механизма взаимодействия (сеть для MPI коммуникаций).
Как минимум, Вычислитель должен удовлетворять следующим требованиям:
-
Совокупная пиковая производительность Вычислителя по тесту Linpack должна составлять по методике, применяемой для измерения этого значения TOP500.org (значение Rpeak):
75 TFlops.
-
Максимальная достигнутая производительность по тесту Linpack Вычислителя должна составлять по методике, применяемой для измерения этого значения TOP500.org (значение Rmax):
55 TFlops.
-
Вычислитель должен обеспечивать выполнение приложений написанных с использованием библиотек MPI версии 3.0.
-
Все вычислительные узлы должны быть идентичны.
-
Вычислительные узлы должны быть исполнены в форм-факторе серверов-лезвий и устанавливаться группами в общее шасси. В одном лезвии допускается установка не более 2-х вычислительных узлов.
-
Вычислительные узлы должны быть оборудованы только элементами воздушного охлаждения. Допускается предложение узлов с жидкостным охлаждением (аналогичным указанным в п.B.2.2) – при этом необходимо поставить всю инженерную инфраструктуру, включая системы охлаждения, электропитания для обеспечения работоспособности в отказоустойчивом варианте.
-
Теоретическая пиковая производительность вычислительного узла должна составлять не менее:
1TFlops.
-
Каждый узел должен содержать оперативную память с поддержкой алгоритмов контроля четности и исправления однобитовых ошибок со следующими характеристиками:
-
частота не менее 2400 MHz.
-
объем не менее 4 GB на каждый процессор.
-
модули памяти должны быть установлены так чтобы равномерно использовать все доступные каналы для максимальной производительности.
-
все модули памяти в вычислительном узле должны быть идентичны.
-
Каждый узел должен иметь системные жесткие твердотельные диски SSD с полезным объемом 200 GB.
Допускается бездисковая конфигурация, при этом должно быть предусмотрено все необходимое оборудование для обеспечения работы в отказоустойчивом режиме для организации загрузки ОС.
-
Для вычислительных узлов должно быть реализовано выполнение следующих операций, инициируемых со стороны любого управляющего узла системы:
-
набор операций совместимый с протоколом IPMI версии 2.0 или выше;
-
селективный аппаратный сброс (hard reset) любого узла или группы узлов;
-
селективное включение / отключение электропитания любого узла или группы узлов (power cycle).
-
чтение значения моментального энергопотребления узла, процессорных чипов.
-
установка ограничения энергопотребления узла: после установки максимального предельного значения узел должен снизить уровень потребляемой электрической мощности до установленного лимита.
-
чтение значения температуры или термального запаса для каждого процессорного чипа.
-
Каждый процессор вычислительного узла должен быть оригинальным 64-х разрядным скалярным процессором. Все процессоры в узле должны быть идентичны.
-
Архитектура набора команд процессора должна быть совместима с x86-64 с векторными расширениями.
-
Объем кэш-памяти каждого процессорного чипа должен составлять не менее 25 MB.
-
Теоретическая пиковая производительность одного процессора должна составлять не менее 35 GFlops.
-
Каждый узел должен иметь доступ к Дисковой системе хранения данных #1 через параллельную файловую систему.
Каждый узел должен содержать MPI-интерфейс, а Вычислитель коммуникационную сеть MPI.
Коммуникационная сеть MPI должна обеспечивать объединение, как минимум, всех вычислительных узлов в единую высокопроизводительную сеть. Топология сети должна обеспечивать полное использование полосы пропускания от всех подключенных вычислительных узлов, т.е. каждый элемент (например, коммутатор) в топологии должен иметь ту же или лучшую производительность к сети, чем сумма производительностей подключенных узлов. Топология должна быть одинаковой для всего Вычислителя.
Коммуникационная сеть должна обеспечивать пропускную способность каждого линка на уровне не менее 50 Gbps.
Количество корневых коммутаторов в коммуникационной сети (при наличии в топологии) должно быть не менее 2-х.
Коммуникация узлов (электропитание, интерконнект, ЛВС) в шасси реализуется без использования кабелей. При использовании центральных корневых коммутаторов-директоров интерконнекта допускается использование прямых кабельных соединений.
Коммуникационная сеть должна быть построена по схеме без единой точки отказа.
Выделенная сеть мониторинга и управления Вычислителя реализуется по схеме без единой точки отказа со скоростью не менее 1Gbps.
-
Продолжительность перевода Вычислителя из рабочего режима в состояние «отключение питания» не должна превышать 15 мин. Продолжительность перевода Вычислителя из состояния «отключение питания» в рабочий режим не должна превышать 20 минут;
-
Единичный отказ блока питания и/или элемента охлаждения не должен приводить к выходу из строя узла.
-
Вычислитель (Р) и Вычислитель #1 должны быть одного модельного ряда.
Время выполнения представленных Получателем тестов на основе глобальной конечно-разностной модели SLM (п. E.3.7.2) для минимальной конфигурации, требуемой к тестированию (п. E.3.1), должно быть не более значений, указанных в сопроводительной документации к тестированию.
Время выполнения тестов на основе модели COSMO (п. E.3.7.3) для минимальной конфигурации, требуемой к тестированию (п. E.3.1), должно быть не более значения, указанного в сопроводительной документации к тестированию.
B.2.4.3.1Система управления данными
Система управления данными должна включать в себя Дисковую систему хранения данных (п. B.2.4.1), Дисковую систему хранения данных #2 (п.B.2.4.2), Серверы системы управления данными (п. B.2.4.3), включая Сервер доступа к данным из ЛВС.
Как минимум, оборудование Системы управления данными должно удовлетворять следующим требованиям:
-
Все узлы Вычислителя, Система FRONT-END Вычислителя, Система пакетной обработки заданий, Серверы системы управления данными, Серверы оперативной системы, должны иметь доступ к данным, размещенным в Дисковой системе хранения данных, и должны иметь отказоустойчивый доступ посредством параллельной файловой системы к Дисковой системе хранения данных #2.
Серверы и рабочие станции, расположенные в ЛВС должны иметь сетевой доступ к данным параллельной файловой системы;
На Вычислителе должна быть установлена только клиентская часть (части) параллельной файловой системы;
Управление доступом к данным посредством параллельной файловой системы осуществляется при помощи дополнительного по отношению к Вычислителю оборудования с организацией отказоустойчивой файловой системы;
Система управления данными должна обеспечивать автоматическую миграцию файлов между уровнями хранения, включая данные параллельной файловой системы;
Должна быть реализована централизованная система резервного копирования данных для обеспечения резервного копирования системных дисков всех серверов Вычислительного комплекса, части или всех серверов Информационной системы на Дисковую систему хранения данных;
Все компоненты Системы управления данными должны управляться с удаленной консоли, расположенной в ЛВС;
B.2.4.1Дисковая система хранения данных #1
Как минимум, Дисковая система хранения #1 должна удовлетворять следующим требованиям:
-
Общее дисковое пространство без учета запасных дисков должно составлять:
(М) – 320 TB;
(Р) – 200 TB;
Данные должны быть защищены с использованием технологии распределения контрольных сумм по всем дискам, используемым для хранения метаданных.
Единичные отказы аппаратных компонентов системы не должны вызывать останова системы и прерывания доступа к данным.
Дисковая система хранения данных должна иметь внешние интерфейсы SAS, FC 8 Gbps или Infiniband FDR.
Пропускная способность дискового массива Дисковой системы хранения данных должна составлять не менее
(М) – 6 GBps;
(Р) – 2 GBps;
Дисковые массивы для ММЦ и РСМЦ должны быть из одного модельного ряда.
Дисковая система хранения данных должна быть построена на дисках SAS или NL-SAS.
В одном шасси дискового массива должно быть размещено не менее 60 дисков.
Все диски, предназначенные для хранения данных, должны быть идентичны и иметь одинаковый номер модели, объем и скорость вращения.
Дисковая система хранения данных должна обеспечивать параллельный доступ к данным с Вычислителя, Серверов системы управления данными, Серверов оперативной системы и сетевой доступ клиентов расположенных в ЛВС;
Архитектура Дисковой системы хранения данных и дисковых массивов должна не иметь единой точки отказа, обеспечивать замену оборудования и обслуживание без остановки сервиса доступа к данным;
В составе Дисковой системы хранения данных должны содержаться запасные диски, функционирующие в режиме горячей подмены, суммарная емкость которых должна составлять не менее 10% от объема общего дискового пространства. Эти диски не должны быть включены ни в какую активную дисковую группу (например, в конфигурации RAID), но должны автоматически подключаться к активным дисковым группам в случае отказа диска группы;
Дисковая система хранения данных должна обеспечивать защиту данных от сбоя носителя аппаратными средствами.
Платформа виртуализации должна иметь непосредственный доступ к Дисковой системе хранения данных;
Дисковая система хранения данных должна поддерживать доступ со стороны серверов и рабочих станций, работающих под управлением OC Windows или Linux, через ЛВС по протоколам NFS, CIFS и FTP;
Должна быть обеспечена авторизация с использованием протокола LDAP при доступе к информации, расположенной на Дисковой системе хранения данных;
Дисковая система хранения данных может быть конфигурируема как один из уровней системы иерархического хранения данных.
B.2.4.2Дисковая система хранения данных #2
Как минимум, Дисковая система хранения #2 должна удовлетворять следующим требованиям:
-
Форматированное дисковое пространство без учета запасных дисков должно составлять не менее
2,5 PB;
Данные должны быть защищены с использованием технологии распределения контрольных сумм по всем дискам, используемым для хранения метаданных.
Единичные отказы аппаратных компонентов системы не должны вызывать останова системы и прерывания доступа к данным.
Дисковая система хранения данных #2 должна поддерживать внешние интерфейсы Infiniband FDR;
Пропускная способность Дисковой системы хранения данных #2 должна составлять не менее
55 GBps;
Дисковая система хранения данных #2 должна быть построена на дисках семейства SAS.
Все диски, предназначенные для хранения данных, должны быть идентичны и иметь одинаковый номер модели, объем и скорость вращения;
Дисковая система хранения данных #2 должна обеспечивать параллельный доступ к данным с Вычислителя, Серверов системы управления данными, Серверов оперативной системы и сетевой доступ клиентов расположенных в ЛВС;
Дисковая система хранения данных #2 должна обеспечивать требуемую для Вычислителя п. B.2.2 производительность файловой системы, подтвержденную на тестах;
Архитектура Дисковой системы хранения данных #2 и дисковых массивов должна не иметь единой точки отказа, обеспечивать замену оборудования и обслуживание без остановки сервиса доступа к данным;
Дисковая система хранения данных должна иметь возможность создания, расширения, изменения параметров и удаления логических томов в оперативном режиме;
-
Дисковая система хранения данных должна содержать запасную дисковую ёмкость, функционирующую в режиме «горячей» подмены суммарным объемом не менее 10% от объема общего дискового пространства. Эта емкость не должна использоваться для хранения данных, но должна автоматически использоваться для восстановления отказоустойчивости массива в случае отказа диска;
Дисковая система хранения данных #2 должна обеспечивать защиту данных от одновременной потери как минимум двух носителей в группе.
Дисковая система хранения данных #2 должна предоставлять возможность доступа к данным Вычислителю;
Дисковая система хранения данных #2 должна поддерживать доступ со стороны серверов и рабочих станций, работающих под управлением OC Windows или Linux, через ЛВС по протоколам NFS, CIFS и FTP;
Должна быть обеспечена авторизация с использованием протокола LDAP при доступе к информации, расположенной на Дисковой системе хранения данных;
B.2.4.3Серверы системы управления данными B.2.4.3.1Сервер архивирования и резервного копирования
Как минимум, Сервер должен удовлетворять следующим требованиям:
-
Функциональность Сервера архивирования и резервного копирования должна обеспечить резервное копирование/восстановление данных с выделенных серверов Информационной системы на Дисковую систему хранения данных.
Сервер реализуется в виде кластера без единой точки отказа, который базируется на конфигурации Сервер #1 (п. B.2.9.1).
Требования к программным средствам резервного копирования/восстановления данных приведены в п. B.4.3.
Сервер должен иметь доступ к параллельной файловой системе без использования ЛВС.
B.2.4.3.2Сервер иерархического хранения данных
Как минимум, Сервер должен удовлетворять следующим требованиям:
-
Функциональность Сервера иерархического хранения данных должна обеспечить работу параллельной файловой системы и миграцию данных между Дисковыми системами хранения данных в соответствии с предписанной политикой.
Сервер реализуется в виде кластера без единой точки отказа, который базируется на конфигурации Сервер #1 (п. B.2.9.1).
Требования к программным средствам приведены в п. B.4.4.
Сервер должен иметь доступ к параллельной файловой системе без использования ЛВС.
B.2.4.3.3Сервер доступа к данным из ЛВС
Как минимум, Сервер должен удовлетворять следующим требованиям:
-
Функциональность Сервера должна обеспечить функции, указанные в п. B.2.4.1;
Сервер реализуется в виде кластера без единой точки отказа, который базируется на конфигурации Сервер #1 (п. B.2.9.1).
Сервер должен иметь доступ к параллельной файловой системе без использования ЛВС.
Управление должно быть обеспечено с Системной консоли #1 (п. B.2.2.1).
Отказоустойчивое подключение к ЛВС со скоростью не менее 10 Gbps.
Не допускается реализация других сервисов и систем на аппаратной платформе данной системы.
B.2.5.3.1Серверы оперативной системы
Функциональность серверов оперативной системы должна обеспечить управление метеорологическими базами данных, пред и пост-обработку данных, управление оперативными задачами, задачами обмена оперативной информацией.
B.2.5.1Сервер формирования оперативной продукции
Как минимум, Сервер должен удовлетворять следующим требованиям:
-
Сервер реализуется в виде кластера без единой точки отказа, который базируется на конфигурации Сервер #3 (п.B.2.9.3).
-
Сервер должен иметь доступ к Дисковым системам хранения, включая доступ к параллельной файловой системе, без использования ЛВС.
Операционная система – ОС Вычислителя.
Не допускается реализация других сервисов и систем на аппаратной платформе данной системы.
B.2.5.2Сервер оперативной обработки информации
Как минимум, Сервер должен удовлетворять следующим требованиям:
-
Сервер должен представлять собой вычислительную систему с глобальной общей оперативной памятью
-
Совокупная пиковая производительность Сервера по тесту Linpack должна составлять по методике, применяемой для измерения этого значения TOP500.org (значение Rpeak):
9 TFlops;
-
Каждый процессор должен быть оригинальным 64-х разрядным скалярным процессором;
-
Архитектура набора команд процессора должна быть совместима с x86-64 с векторными расширениями;
-
Объем кэш-памяти каждого процессорного чипа должен составлять не менее 15 MB;
-
ОЗУ – 4 TB с технологией коррекции ошибок ECC (планки оперативной памяти должны иметь объем не менее 16 GB каждая);
-
4 (четыре) НЖМД SSD, емкостью не менее 160 GB каждый, с аппаратным зеркалированием;
-
2 (два) адаптера Gigabit Ethernet;
-
4 графических адаптера с объемом памяти не менее 2 GB GDDR5 с двумя интерфейсами DVI .
-
Подключение к Дисковой системе хранения данных #2 без использования ЛВС, включая подключение к параллельным файловым системам;
-
Сервер должен быть подключен к Системной консоли.
-
Непосредственное подключение 2-х рабочих мест (удаление до 30м). Каждое рабочее место должно быть оборудовано монитором 30”, клавиатурой, мышью.
-
Операционная система – единый образ операционной системы – ОС Вычислителя.
-
Шасси для размещения компонентов в блэйд форм-факторе.
-
Размещение шасси в серверной стойке.
-
Не допускается реализация других сервисов и систем на аппаратной платформе данной системы.
-
Результаты выполнения тестов общей производительности (п.E.3.5) для полной конфигурации сервера, должны быть не хуже значений, указанных в сопроводительной документации к тестированию.
B.2.5.3Сервер рабочей группы #1
Как минимум, Сервер должен удовлетворять следующим требованиям:
-
Сервер реализуется в виде кластера без единой точки отказа, который базируется на конфигурации Сервер #1 (п.B.2.9.1).
Кластер должен быть подключен к Системной консоли #1 (п. B.2.2.1).
Кластер должен иметь независимую систему хранения данных, построенную на дисках SAS 10k, объемом не менее 10TB с аппаратным RAID5 и 10% набором запасных дисков, функционирующих в режиме горячей подмены.
Сервер должен иметь доступ к параллельной файловой системе без использования ЛВС.
Средства разработки и отладки приложений (п. B.4.8) должны также быть предложены для указанного кластера.
Операционная система – ОС Вычислителя.
Не допускается реализация других сервисов и систем на аппаратной платформе данной системы.
B.2.5.4Сервер рабочей группы #2
Как минимум, Сервер должен удовлетворять следующим требованиям:
Основные компоненты серверной платформы должны удовлетворять следующим минимальным требованиям:
-
Сервер реализуется на базе конфигурации Сервер #1 (п.B.2.9.1).
Операционная система:
Windows Server x64 Edition с лицензией на 250 пользователей;
Сервер должен иметь доступ к параллельной файловой системе без использования ЛВС. Допускается замена указанного функционала на систему хранения данных, построенную на дисках SAS 10k, объемом не менее 10TB с аппаратным RAID5 и 10% набором запасных дисков, функционирующих в режиме горячей подмены.
Не допускается реализация других сервисов и систем на аппаратной платформе данной системы.
B.2.5.5Сервер технологического сегмента
Как минимум, Сервер должен удовлетворять следующим требованиям:
-
Сервер реализуется на базе конфигурации Сервер #1 (п.B.2.9.1).
Сервер должен иметь доступ к параллельной файловой системе без использования ЛВС. Допускается замена указанного функционала на систему хранения данных, построенную на дисках SAS 10k, объемом не менее 10TB с аппаратным RAID5 и 10% набором запасных дисков, функционирующих в режиме горячей подмены.
Операционная система – Linux.
Не допускается реализация других сервисов и систем на аппаратной платформе данной системы.
B.2.6.3.1Сервер системы управления и мониторинга
Как минимум, Сервер должен удовлетворять следующим требованиям:
-
Функциональность Сервера должна обеспечить управление и мониторинг Вычислительного комплекса и системы жизнеобеспечения.
-
Сервер реализуется в виде кластера без единой точки отказа, который базируется на конфигурации Сервер #1 (п.B.2.9.1).
Требования к программному обеспечению приведены в п. B.4.5.
B.2.7.3.1Сервер управления доступом к ресурсам
Как минимум, Сервер должен удовлетворять следующим требованиям:
-
Функциональность Сервера должна обеспечить централизованное назначение, распространение и контроль выполнения общих правил доступа к вычислительным и информационным ресурсам системы.
Аппаратная реализация должна базироваться на конфигурации Сервер #1 (п.B.2.9.1) с организацией отказоустойчивого дублирования.
Требования к программному обеспечению приведены в п. B.4.7.
Не допускается реализация других сервисов и систем на аппаратной платформе данной системы.
B.2.8.3.1Платформа виртуализации
Платформа виртуализации представляет собой совокупность серверных узлов, СХД и средств коммуникации, предназначенных для создания единого отказоустойчивого кластера для запуска виртуальных серверов.
Как минимум, ПВ должна удовлетворять следующим требованиям:
-
Серверная часть ПВ должна быть реализована на аппаратных средствах, идентичных по всем характеристикам серверным средствам Вычислителя #1 (п. B.2.2);
-
После размещения на ПВ всей предусмотренной данным Техническим заданием нагрузки, должно оставаться свободным не менее 50% аппаратных ресурсов (процессоры, память) для целей расширения использования ПВ Получателя;
-
ПВ должна сохранять работоспособность в полном объеме при полном выходе из строя до 50% аппаратных ресурсов (серверов);
-
Общее количество серверных узлов ПВ должно составлять не менее 36 (тридцати шести) серверов;
-
Управление аппаратными средствами ПВ должно осуществляться средствами Системы управления и мониторинга Вычислителем #1;
-
Коммуникационные/транспортные сети ПВ и Вычислителя #1 должны быть физически разделены;
-
Транспортная сеть серверных узлов ПВ должна использоваться для доступа к Дисковой системе хранения данных #1, для обеспечения функционала безостановочной миграции ВМ между узлами ПВ, для межсерверного взаимодействия в ПВ и для межсетевого обмена трафиком виртуальных машин с ЛВС Получателя;
-
Должен быть предусмотрен интерфейс между коммуникационной и транспортной сетями ПВ и ЛВС Получателя на уровне L2 модели OSI минимум двумя соединениями на скорости не менее 10 Gbps каждое;
B.2.9.3.1Типовые серверные конфигурации B.2.9.1Сервер #1
Как минимум, Сервер должен удовлетворять следующим требованиям:
-
2 (два) процессорных чипа;
-
Каждый процессор должен быть оригинальным 64-битным процессором, идентичным процессору Вычислителя;
-
ОЗУ – 256 GB, частотой не менее 2400 MHz с технологией коррекции ошибок ECC;
-
2 (два) НЖМД SAS 10k, емкостью 600 GB каждый, с аппаратным зеркалированием;
-
2 (два) адаптера Ethernet 10/100/1000 Base-T;
-
Требования к типу системы охлаждения не предъявляется;
-
Избыточные вентиляторы с возможностью горячей замены;
-
Избыточные блоки питания с возможностью горячей замены;
-
Сервер должен быть подключен к Системной консоли #1 (п. B.2.2.1).
-
Операционная система – ОС Вычислителя.
-
Размещение в монтажном шкафу.
B.2.9.2Сервер #2
Как минимум, Сервер должен удовлетворять следующим требованиям:
-
2 (два) процессорных чипа;
-
Каждый процессор должен быть оригинальным 64-битным процессором, идентичным процессору Вычислителя;
-
ОЗУ – 128 GB, частотой не менее 2400 MHz с технологией коррекции ошибок ECC;
-
2 (два) НЖМД SAS 10k, емкостью 600 GB каждый, с аппаратным зеркалированием;
-
2 (два) адаптера Ethernet 10/100/1000 Base-T;
-
Требования к типу системы охлаждения не предъявляется;
-
Избыточные вентиляторы с возможностью горячей замены;
-
Избыточные блоки питания с возможностью горячей замены;
-
Сервер должен быть подключен к Системной консоли #1 (п. B.2.2.1).
-
Операционная система – ОС Вычислителя.
-
Размещение в монтажном шкафу.
B.2.9.3Сервер #3
Как минимум, Сервер должен удовлетворять следующим требованиям:
-
2 (два) процессорных чипа;
-
Каждый процессор должен быть оригинальным 64-битным процессором, идентичным процессору Вычислителя;
-
ОЗУ – 512 GB, частотой не менее 2400 MHz с технологией коррекции ошибок ECC;
-
2 (два) НЖМД SAS 10k, емкостью 600 GB каждый, с аппаратным зеркалированием;
-
2 (два) адаптера Ethernet 10/100/1000 Base-T;
-
Избыточные вентиляторы с возможностью горячей замены;
-
Избыточные блоки питания с возможностью горячей замены;
-
Подключение к Дисковой системе хранения данных без использования ЛВС, включая подключение к параллельной файловой системе;
-
Сервер должен быть подключен к Системной консоли #1 (п. B.2.2.1).
-
Операционная система – ОС Вычислителя.
-
Размещение в монтажном шкафу.
Поделитесь с Вашими друзьями: |