Технические требования


B.2Аппаратное обеспечение Вычислительного комплекса и прочее оборудование



страница7/16
Дата28.11.2017
Размер1.74 Mb.
1   2   3   4   5   6   7   8   9   10   ...   16

B.2Аппаратное обеспечение Вычислительного комплекса и прочее оборудование

B.2.1.3.1Общие требования


Как минимум все аппаратное обеспечение, поставляемое в рамках данного конкурса, должно удовлетворять следующим требованиям:

  1. Все функции, описанные в п. B.2, должны быть реализованы.

  1. Должно быть предусмотрено все необходимое оборудование и программное обеспечение (в том числе явно не обозначенное в Технических требованиях) для реализации функций обозначенных в п.B.2.

Все активное оборудование Вычислительного комплекса должно иметь встроенные аппаратные средства удаленного управления, позволяющие осуществлять конфигурирование, останов, запуск и/или перезапуск системы или отдельного элемента посредством защищенного интерфейса из сети мониторинга и управления. Сеть мониторинга и управления должна поставляться и устанавливаться вместе с остальным оборудованием Вычислительного комплекса.

Все аппаратные средства СКТП и СБЭ должны иметь встроенные аппаратные средства удаленного управления, позволяющие осуществлять конфигурирование и мониторинг системы или отдельного элемента посредством интерфейса из сети мониторинга и управления. Все аппаратные средства СКТП и СБЭ должны содержать все необходимое оборудование и инфраструктуру для включения в сеть мониторинга и управления.

Вычислительный комплекс должен удовлетворять требованию максимальной готовности. Под термином «максимальная готовность» в данном случае понимается следующее: в случае выхода из строя любого узла или компонента системы (аппаратного или программного), система должна автоматически выявить сбой и принять все меры к самовосстановлению и переконфигурированию. Пользовательские процессы, прерванные сбоем узла, могут не восстанавливаться автоматически. Потеря целостности данных параллельной файловой системы не допускается.

В случае выхода из строя узла/узлов Вычислителя или любой части коммуникационной сети MPI, или части дисковой подсистемы, оставшиеся узлы Вычислителя должны автоматически сохранить доступ ко всей информации, хранящейся в Дисковых системах хранения данных.

Должна быть обеспечена возможность для инженеров сопровождения, выполняющих диагностические или ремонтные работы над любой подсистемой, выполнять работы без прерывания основных оперативных функций и снижения производительности Вычислителя более чем на 25%.

B.2.2.3.1Вычислитель #1


Вычислитель представляет собой набор вычислительных узлов, объединенных с помощью высокопроизводительного механизма взаимодействия (сеть для MPI коммуникаций/интерконнект).

Как минимум, Вычислитель должен удовлетворять следующим требованиям:



  1. Совокупная пиковая производительность Вычислителя по тесту Linpack должна составлять по методике, применяемой для измерения этого значения TOP500.org (значение Rpeak):

1,2 PFlops.

  1. Максимальная достигнутая производительность по тесту Linpack Вычислителя должна составлять по методике, применяемой для измерения этого значения TOP500.org (значение Rmax):

0,9 PFlops.

  1. Вычислитель должен обеспечивать выполнение приложений написанных с использованием библиотек MPI версии 3.0.

  2. Все вычислительные узлы должны быть идентичны.

  3. Вычислительные узлы должны быть исполнены в форм-факторе серверов-лезвий и устанавливаться в общее шасси. В одном лезвии допускается установка не более 4-х вычислительных узлов, в одном шасси – не менее 12 вычислительных узлов.

  4. Вычислитель должен иметь систему жидкостного охлаждения, удовлетворяющую следующим требованиям:

  • Охлаждение горючими и химически активными веществами не допускается.

  • Не допускается непосредственный контакт охлаждающей жидкости с электронными компонентами вычислительных узлов.

  • Использование эффективного охлаждения (без использования чиллеров) до тех пор, пока температура наружного воздуха остается ниже 28°C.

Компоненты вычислительных узлов должны функционировать без снижения производительности.

  • Должна быть обеспечена защита от непреднамеренной протечки жидкости в случае остановки или отключения элементов вычислительного комплекса.

  1. Подключение и отключение серверов-лезвий без остановки любого из других серверов-лезвий.

  2. Теоретическая пиковая производительность вычислительного узла должна составлять не менее:

1TFlops.

  1. Каждый узел должен содержать оперативную память с поддержкой алгоритмов контроля четности и исправления однобитовых ошибок со следующими характеристиками:

  • частота не менее 2400 MHz.

  • объем не менее 4 GB на каждый процессор.

  • модули памяти должны быть установлены так чтобы равномерно использовать все доступные каналы для максимальной производительности.

  • все модули памяти в вычислительном узле должны быть идентичны.

  1. Каждый узел должен иметь системные жесткие твердотельные диски SSD с объемом 200 GB.

Допускается бездисковая конфигурация, при этом должно быть предусмотрено все необходимое оборудование для обеспечения работы в отказоустойчивом режиме для организации загрузки ОС на вычислительные узлы.

  1. Для вычислительных узлов должно быть реализовано выполнение следующих операций, инициируемых со стороны любого управляющего узла системы:

  • набор операций совместимый с протоколом IPMI версии 2.0 или выше.

  • селективный аппаратный сброс (hard reset) любого узла или группы узлов.

  • селективное включение/отключение электропитания любого узла или группы узлов (power cycle).

  • чтение кода результата тестирования состояния узла (Power-On Self Test , POST).

  • обновление микрокода BIOS на одном и всех узлах Вычислителя одновременно.

  • чтение значения моментального энергопотребления узла, процессорных чипов.

  • установка ограничения энергопотребления узла: после установки максимального предельного значения узел должен снизить уровень потребляемой электрической мощности до установленного лимита.

  • чтение значения температуры или термального запаса для каждого процессорного чипа.

  1. Узлы Вычислителя должны иметь функционал предотвращения катастроф: узел должен полностью самостоятельно выключаться при выходе значений температуры за рамки диапазона рабочих температур установленные Производителем для данных узлов.

  2. Каждый процессор вычислительного узла должен быть оригинальным 64-х разрядным скалярным процессором. Все процессоры в узле должны быть идентичны.

  3. Архитектура набора команд процессора должна быть  совместима с x86-64 с векторными расширениями.

  4. Объем кэш-памяти каждого процессорного чипа должен составлять не менее 25 MB.

Теоретическая пиковая производительность одного процессора должна составлять не менее 35 GFlops.

Каждый узел должен иметь доступ к Дисковой системе хранения данных #2 через параллельную файловую систему. Производительность Дисковой системы хранения #2 (тест E.3.6) должна быть не менее значений, указанных в сопроводительной документации к тестированию.

Каждый узел должен содержать MPI-интерфейс, а Вычислитель Коммуникационную сеть MPI, с характеристиками не хуже, чем указанные в сопроводительной документации к тестированию и измеренными на тестах п. E.3.3.

Коммуникационная сеть MPI должна обеспечивать объединение, как минимум, всех вычислительных узлов в единую высокопроизводительную сеть. Топология сети должна обеспечивать полное использование полосы пропускания от всех подключенных вычислительных узлов, т.е. каждый элемент (например, коммутатор) в топологии должен иметь ту же или лучшую производительность к сети, чем сумма производительностей подключенных узлов. Топология должна быть одинаковой для всего Вычислителя.

Транспортная сеть должна обеспечивать объединение всех вычислительных узлов для доступа к дисковым системам хранения.

Должна обеспечиваться одновременная работа коммуникационной и транспортной сетей по раздельным интерфейсам. Топологии коммуникационной и транспортной сети должны быть идентичны.

Высокопроизводительные коммуникационная и транспортная сети должны обеспечивать пропускную способность каждого линка на уровне не менее 80 Gbps.

Количество корневых коммутаторов в каждой из указанных выше высокопроизводительных сетей (при наличии в топологии) должно быть не менее 2-х.

Коммуникация узлов (электропитание, интерконнект, ЛВС) в шасси реализуется без использования кабелей. При использовании центральных корневых коммутаторов-директоров интерконнекта допускается использование прямых кабельных соединений.

Коммуникационная сеть должна быть построена по схеме без единой точки отказа, обеспечивая объединение пропускных способностей интерфейсов или, в случае отказа, автоматический механизм переключения между интерфейсами вычислительных узлов.

Выделенная сеть мониторинга и управления Вычислителя реализуется по схеме без единой точки отказа со скоростью не менее 1Gbps.

Продолжительность перевода Вычислителя из рабочего режима в состояние «отключение питания» не должна превышать 15 мин. Продолжительность перевода Вычислителя из состояния «отключение питания» в рабочий режим не должна превышать 20 минут.

Единичный отказ блока питания и/или активного элемента охлаждения не должен приводить к выходу из строя узла.


  1. Система охлаждения вычислительных узлов Вычислителя должна обеспечивать надежность и доступность:

  • в составе вычислительных узлов должны отсутствовать элементы с механически движущимися в процессе работы частями, такие как жесткие диски, вентиляторы, и пр.

  • единичный отказ элемента охлаждения не должен приводить к выходу любого из узлов группы серверов-лезвий.

  • проведение регламентного обслуживания элементов системы охлаждения Вычислителя должно осуществляться без останова вычислительных узлов.

Время выполнения представленного Получателем теста на основе глобальной спектральной модели (п. E.3.7.1) для минимальной конфигурации, требуемой к тестированию (п. E.3.1) должно быть не более значения, указанного в сопроводительной документации к тестированию.

Время выполнения представленных Получателем тестов на основе глобальной конечно-разностной модели SLM (п. E.3.7.2) для минимальной конфигурации, требуемой к тестированию (п. E.3.1), должно быть не более значений, указанных в сопроводительной документации к тестированию.

Время выполнения тестов на основе модели COSMO (п. E.3.7.3) для минимальной конфигурации, требуемой к тестированию (п. E.3.1), должно быть не более значения, указанного в сопроводительной документации к тестированию.

B.2.2.1Системная консоль #1 Вычислителя


Вычислитель должен поставляться с одной Системной консолью #1 (кластер), которая должна удовлетворять, как минимум, следующим требованиям:

  1. Системная консоль #1 Вычислителя должна обеспечивать выполнение функций консоли для Вычислителя и всего серверного оборудования Вычислительного комплекса и включать все необходимое для этого оборудование;

  2. Функции управления оборудованием до загрузки операционной системы должны быть обеспечены (в том числе работа с BIOS, состояние отключенное питание, креш ОС).

  3. Должен быть обеспечен монтаж в стойку.

  4. Предустановленная ОС Вычислителя с оптическим диском дистрибутива.

  5. DVD дисковод.

  6. Подключение к ЛВС для организации удаленного доступа.

  7. TFT-монитор, активная матрица, размер экрана не менее 17" по диагонали в конструктиве 1U.

B.2.2.2Системная консоль #2


Системная консоль #2 дублирует функции Системной консоли #1 Вычислителя, располагается вне помещения размещения Вычислительного комплекса, включает в себя Системный блок#1 и Монитор#1

Как минимум, Системный блок#1 должен удовлетворять следующим требованиям:



  1. 1 (один) 64 разрядных процессорный чип;.

Пиковая производительность каждого процессорного чипа – 30 GFlops;

ОЗУ – 8 GB;

1(один) НЖМД SAS 10k, емкостью 600 GB или 2(два) НЖМД SATA, емкостью 1 TB каждый с зеркалированием;

1 комбинированный CD/DVD привод;

1 сетевой адаптер – интегрированный RJ-45, Ethernet 10/100/1000 Base-Т;

2 свободных порта USB 2.0;

1 последовательный порт;

Стандартная клавиатура 101 key Rus/ Lat

Оптическая мышь с колесом прокрутки, коврик для мыши;

Предустановленная ОС – ОС Вычислителя с инсталляционным диском.

Как минимум, Монитор#1 должен удовлетворять следующим требованиям:


  1. Тип – цветной, активная матрица TFT;

Размер экрана – 20" по диагонали;

Размер пикселя – не более 0.26 mm;

Контраст –700:1;

Яркость – 300 cd/m2;

Разрешение – 1600x1200, 60 Hz;

Максимально допустимое количество неисправных пикселей – class II по стандарту ISO 13406-2;

Встроенный источник питания;

Стандарт излучения и экологической безопасности – TCO-03

Монитор#1 должен быть совместим с Системным блоком#1.

Монитор#1 должен поставляться вместе с интерфейсными кабелями.


B.2.2.3Система FRONT-END Вычислителя


Как минимум, Система должна удовлетворять следующим требованиям:

Система организуется для обеспечения единой точки входа для пользователей, организации среды трансляции и т.д.



  1. Система должна быть организована:

(М) – в виде кластера без единой точки отказа, который базируется на конфигурации Сервер #1 (п.B.2.9.1)

(Р) – на базе конфигурации Сервер #1 (п.B.2.9.1)

Операционная система – ОС Вычислителя.

Запуск задач на Вычислителе должен организовываться через систему пакетной обработки заданий.

Не допускается реализация других сервисов и систем на аппаратной платформе данной системы.

B.2.2.4Система пакетной обработки заданий


Как минимум, Система должна удовлетворять следующим требованиям:

  1. Система организуется для обеспечения контролируемого запуска задач на ресурсах вычислительного комплекса.

  1. Система организуется в виде кластера без единой точки отказа, который базируется на конфигурации Сервер #2 (п. B.2.9.2).

Сервис системы пакетной обработки заданий также должен быть задублирован.

Не допускается реализация других сервисов и систем на аппаратной платформе данной системы.


B.2.2.5Система управления лицензиями


Как минимум, Система управления лицензиями должна удовлетворять следующим требованиям:

  1. Система должна организовываться для обеспечения централизованного управления лицензиями программного обеспечения, установленного на ресурсах вычислительного комплекса.

  1. Система должна организовываться в виде кластера без единой точки отказа, который базируется на конфигурации Сервер #2 (п. B.2.9.2).

Предустановленная операционная система должна быть идентична ОС Вычислителя.

B.2.3.3.1Вычислитель (Р)


Вычислитель представляет собой набор вычислительных узлов, объединенных с помощью высокопроизводительного механизма взаимодействия (сеть для MPI коммуникаций).

Как минимум, Вычислитель должен удовлетворять следующим требованиям:



  1. Совокупная пиковая производительность Вычислителя по тесту Linpack должна составлять по методике, применяемой для измерения этого значения TOP500.org (значение Rpeak):

75 TFlops.

  1. Максимальная достигнутая производительность по тесту Linpack Вычислителя должна составлять по методике, применяемой для измерения этого значения TOP500.org (значение Rmax):

55 TFlops.

  1. Вычислитель должен обеспечивать выполнение приложений написанных с использованием библиотек MPI версии 3.0.

  2. Все вычислительные узлы должны быть идентичны.

  1. Вычислительные узлы должны быть исполнены в форм-факторе серверов-лезвий и устанавливаться группами в общее шасси. В одном лезвии допускается установка не более 2-х вычислительных узлов.

  2. Вычислительные узлы должны быть оборудованы только элементами воздушного охлаждения. Допускается предложение узлов с жидкостным охлаждением (аналогичным указанным в п.B.2.2) – при этом необходимо поставить всю инженерную инфраструктуру, включая системы охлаждения, электропитания для обеспечения работоспособности в отказоустойчивом варианте.

  3. Теоретическая пиковая производительность вычислительного узла должна составлять не менее:

1TFlops.

  1. Каждый узел должен содержать оперативную память с поддержкой алгоритмов контроля четности и исправления однобитовых ошибок со следующими характеристиками:

  • частота не менее 2400 MHz.

  • объем не менее 4 GB на каждый процессор.

  • модули памяти должны быть установлены так чтобы равномерно использовать все доступные каналы для максимальной производительности.

  • все модули памяти в вычислительном узле должны быть идентичны.

  1. Каждый узел должен иметь системные жесткие твердотельные диски SSD с полезным объемом 200 GB.

Допускается бездисковая конфигурация, при этом должно быть предусмотрено все необходимое оборудование для обеспечения работы в отказоустойчивом режиме для организации загрузки ОС.

  1. Для вычислительных узлов должно быть реализовано выполнение следующих операций, инициируемых со стороны любого управляющего узла системы:

  • набор операций совместимый с протоколом IPMI версии 2.0 или выше;

  • селективный аппаратный сброс (hard reset) любого узла или группы узлов;

  • селективное включение / отключение электропитания любого узла или группы узлов (power cycle).

  • чтение значения моментального энергопотребления узла, процессорных чипов.

  • установка ограничения энергопотребления узла: после установки максимального предельного значения узел должен снизить уровень потребляемой электрической мощности до установленного лимита.

  • чтение значения температуры или термального запаса для каждого процессорного чипа.

  1. Каждый процессор вычислительного узла должен быть оригинальным 64-х разрядным скалярным процессором. Все процессоры в узле должны быть идентичны.

  2. Архитектура набора команд процессора должна быть  совместима с x86-64 с векторными расширениями.

  3. Объем кэш-памяти каждого процессорного чипа должен составлять не менее 25 MB.

  1. Теоретическая пиковая производительность одного процессора должна составлять не менее 35 GFlops.

  2. Каждый узел должен иметь доступ к Дисковой системе хранения данных #1 через параллельную файловую систему.

Каждый узел должен содержать MPI-интерфейс, а Вычислитель коммуникационную сеть MPI.

Коммуникационная сеть MPI должна обеспечивать объединение, как минимум, всех вычислительных узлов в единую высокопроизводительную сеть. Топология сети должна обеспечивать полное использование полосы пропускания от всех подключенных вычислительных узлов, т.е. каждый элемент (например, коммутатор) в топологии должен иметь ту же или лучшую производительность к сети, чем сумма производительностей подключенных узлов. Топология должна быть одинаковой для всего Вычислителя.

Коммуникационная сеть должна обеспечивать пропускную способность каждого линка на уровне не менее 50 Gbps.

Количество корневых коммутаторов в коммуникационной сети (при наличии в топологии) должно быть не менее 2-х.

Коммуникация узлов (электропитание, интерконнект, ЛВС) в шасси реализуется без использования кабелей. При использовании центральных корневых коммутаторов-директоров интерконнекта допускается использование прямых кабельных соединений.

Коммуникационная сеть должна быть построена по схеме без единой точки отказа.

Выделенная сеть мониторинга и управления Вычислителя реализуется по схеме без единой точки отказа со скоростью не менее 1Gbps.


  1. Продолжительность перевода Вычислителя из рабочего режима в состояние «отключение питания» не должна превышать 15 мин. Продолжительность перевода Вычислителя из состояния «отключение питания» в рабочий режим не должна превышать 20 минут;

  2. Единичный отказ блока питания и/или элемента охлаждения не должен приводить к выходу из строя узла.

  3. Вычислитель (Р) и Вычислитель #1 должны быть одного модельного ряда.

Время выполнения представленных Получателем тестов на основе глобальной конечно-разностной модели SLM (п. E.3.7.2) для минимальной конфигурации, требуемой к тестированию (п. E.3.1), должно быть не более значений, указанных в сопроводительной документации к тестированию.

Время выполнения тестов на основе модели COSMO (п. E.3.7.3) для минимальной конфигурации, требуемой к тестированию (п. E.3.1), должно быть не более значения, указанного в сопроводительной документации к тестированию.


B.2.4.3.1Система управления данными


Система управления данными должна включать в себя Дисковую систему хранения данных (п. B.2.4.1), Дисковую систему хранения данных #2 (п.B.2.4.2), Серверы системы управления данными (п. B.2.4.3), включая Сервер доступа к данным из ЛВС.

Как минимум, оборудование Системы управления данными должно удовлетворять следующим требованиям:



  1. Все узлы Вычислителя, Система FRONT-END Вычислителя, Система пакетной обработки заданий, Серверы системы управления данными, Серверы оперативной системы, должны иметь доступ к данным, размещенным в Дисковой системе хранения данных, и должны иметь отказоустойчивый доступ посредством параллельной файловой системы к Дисковой системе хранения данных #2.

Серверы и рабочие станции, расположенные в ЛВС должны иметь сетевой доступ к данным параллельной файловой системы;

На Вычислителе должна быть установлена только клиентская часть (части) параллельной файловой системы;

Управление доступом к данным посредством параллельной файловой системы осуществляется при помощи дополнительного по отношению к Вычислителю оборудования с организацией отказоустойчивой файловой системы;

Система управления данными должна обеспечивать автоматическую миграцию файлов между уровнями хранения, включая данные параллельной файловой системы;

Должна быть реализована централизованная система резервного копирования данных для обеспечения резервного копирования системных дисков всех серверов Вычислительного комплекса, части или всех серверов Информационной системы на Дисковую систему хранения данных;

Все компоненты Системы управления данными должны управляться с удаленной консоли, расположенной в ЛВС;


B.2.4.1Дисковая система хранения данных #1


Как минимум, Дисковая система хранения #1 должна удовлетворять следующим требованиям:

  1. Общее дисковое пространство без учета запасных дисков должно составлять:

(М) – 320 TB;

(Р) – 200 TB;

Данные должны быть защищены с использованием технологии распределения контрольных сумм по всем дискам, используемым для хранения метаданных.

Единичные отказы аппаратных компонентов системы не должны вызывать останова системы и прерывания доступа к данным.

Дисковая система хранения данных должна иметь внешние интерфейсы SAS, FC 8 Gbps или Infiniband FDR.

Пропускная способность дискового массива Дисковой системы хранения данных должна составлять не менее

(М) – 6 GBps;

(Р) – 2 GBps;

Дисковые массивы для ММЦ и РСМЦ должны быть из одного модельного ряда.

Дисковая система хранения данных должна быть построена на дисках SAS или NL-SAS.

В одном шасси дискового массива должно быть размещено не менее 60 дисков.

Все диски, предназначенные для хранения данных, должны быть идентичны и иметь одинаковый номер модели, объем и скорость вращения.

Дисковая система хранения данных должна обеспечивать параллельный доступ к данным с Вычислителя, Серверов системы управления данными, Серверов оперативной системы и сетевой доступ клиентов расположенных в ЛВС;

Архитектура Дисковой системы хранения данных и дисковых массивов должна не иметь единой точки отказа, обеспечивать замену оборудования и обслуживание без остановки сервиса доступа к данным;

В составе Дисковой системы хранения данных должны содержаться запасные диски, функционирующие в режиме горячей подмены, суммарная емкость которых должна составлять не менее 10% от объема общего дискового пространства. Эти диски не должны быть включены ни в какую активную дисковую группу (например, в конфигурации RAID), но должны автоматически подключаться к активным дисковым группам в случае отказа диска группы;

Дисковая система хранения данных должна обеспечивать защиту данных от сбоя носителя аппаратными средствами.

Платформа виртуализации должна иметь непосредственный доступ к Дисковой системе хранения данных;

Дисковая система хранения данных должна поддерживать доступ со стороны серверов и рабочих станций, работающих под управлением OC Windows или Linux, через ЛВС по протоколам NFS, CIFS и FTP;

Должна быть обеспечена авторизация с использованием протокола LDAP при доступе к информации, расположенной на Дисковой системе хранения данных;

Дисковая система хранения данных может быть конфигурируема как один из уровней системы иерархического хранения данных.


B.2.4.2Дисковая система хранения данных #2


Как минимум, Дисковая система хранения #2 должна удовлетворять следующим требованиям:

  1. Форматированное дисковое пространство без учета запасных дисков должно составлять не менее

2,5 PB;

Данные должны быть защищены с использованием технологии распределения контрольных сумм по всем дискам, используемым для хранения метаданных.

Единичные отказы аппаратных компонентов системы не должны вызывать останова системы и прерывания доступа к данным.

Дисковая система хранения данных #2 должна поддерживать внешние интерфейсы Infiniband FDR;

Пропускная способность Дисковой системы хранения данных #2 должна составлять не менее

55 GBps;


Дисковая система хранения данных #2 должна быть построена на дисках семейства SAS.

Все диски, предназначенные для хранения данных, должны быть идентичны и иметь одинаковый номер модели, объем и скорость вращения;

Дисковая система хранения данных #2 должна обеспечивать параллельный доступ к данным с Вычислителя, Серверов системы управления данными, Серверов оперативной системы и сетевой доступ клиентов расположенных в ЛВС;

Дисковая система хранения данных #2 должна обеспечивать требуемую для Вычислителя п. B.2.2 производительность файловой системы, подтвержденную на тестах;

Архитектура Дисковой системы хранения данных #2 и дисковых массивов должна не иметь единой точки отказа, обеспечивать замену оборудования и обслуживание без остановки сервиса доступа к данным;

Дисковая система хранения данных должна иметь возможность создания, расширения, изменения параметров и удаления логических томов в оперативном режиме;



  1. Дисковая система хранения данных должна содержать запасную дисковую ёмкость, функционирующую в режиме «горячей» подмены суммарным объемом не менее 10% от объема общего дискового пространства. Эта емкость не должна использоваться для хранения данных, но должна автоматически использоваться для восстановления отказоустойчивости массива в случае отказа диска;

Дисковая система хранения данных #2 должна обеспечивать защиту данных от одновременной потери как минимум двух носителей в группе.

Дисковая система хранения данных #2 должна предоставлять возможность доступа к данным Вычислителю;

Дисковая система хранения данных #2 должна поддерживать доступ со стороны серверов и рабочих станций, работающих под управлением OC Windows или Linux, через ЛВС по протоколам NFS, CIFS и FTP;

Должна быть обеспечена авторизация с использованием протокола LDAP при доступе к информации, расположенной на Дисковой системе хранения данных;


B.2.4.3Серверы системы управления данными

B.2.4.3.1Сервер архивирования и резервного копирования

Как минимум, Сервер должен удовлетворять следующим требованиям:

  1. Функциональность Сервера архивирования и резервного копирования должна обеспечить резервное копирование/восстановление данных с выделенных серверов Информационной системы на Дисковую систему хранения данных.

Сервер реализуется в виде кластера без единой точки отказа, который базируется на конфигурации Сервер #1 (п. B.2.9.1).

Требования к программным средствам резервного копирования/восстановления данных приведены в п. B.4.3.

Сервер должен иметь доступ к параллельной файловой системе без использования ЛВС.

B.2.4.3.2Сервер иерархического хранения данных

Как минимум, Сервер должен удовлетворять следующим требованиям:

  1. Функциональность Сервера иерархического хранения данных должна обеспечить работу параллельной файловой системы и миграцию данных между Дисковыми системами хранения данных в соответствии с предписанной политикой.

Сервер реализуется в виде кластера без единой точки отказа, который базируется на конфигурации Сервер #1 (п. B.2.9.1).

Требования к программным средствам приведены в п. B.4.4.

Сервер должен иметь доступ к параллельной файловой системе без использования ЛВС.

B.2.4.3.3Сервер доступа к данным из ЛВС

Как минимум, Сервер должен удовлетворять следующим требованиям:

  1. Функциональность Сервера должна обеспечить функции, указанные в п. B.2.4.1;

Сервер реализуется в виде кластера без единой точки отказа, который базируется на конфигурации Сервер #1 (п. B.2.9.1).

Сервер должен иметь доступ к параллельной файловой системе без использования ЛВС.

Управление должно быть обеспечено с Системной консоли #1 (п. B.2.2.1).

Отказоустойчивое подключение к ЛВС со скоростью не менее 10 Gbps.

Не допускается реализация других сервисов и систем на аппаратной платформе данной системы.

B.2.5.3.1Серверы оперативной системы


Функциональность серверов оперативной системы должна обеспечить управление метеорологическими базами данных, пред и пост-обработку данных, управление оперативными задачами, задачами обмена оперативной информацией.

B.2.5.1Сервер формирования оперативной продукции


Как минимум, Сервер должен удовлетворять следующим требованиям:

  1. Сервер реализуется в виде кластера без единой точки отказа, который базируется на конфигурации Сервер #3 (п.B.2.9.3).

  2. Сервер должен иметь доступ к Дисковым системам хранения, включая доступ к параллельной файловой системе, без использования ЛВС.

Операционная система – ОС Вычислителя.

Не допускается реализация других сервисов и систем на аппаратной платформе данной системы.


B.2.5.2Сервер оперативной обработки информации


Как минимум, Сервер должен удовлетворять следующим требованиям:

  1. Сервер должен представлять собой вычислительную систему с глобальной общей оперативной памятью

  1. Совокупная пиковая производительность Сервера по тесту Linpack должна составлять по методике, применяемой для измерения этого значения TOP500.org (значение Rpeak):

9 TFlops;

  1. Каждый процессор должен быть оригинальным 64-х разрядным скалярным процессором;

  2. Архитектура набора команд процессора должна быть  совместима с x86-64 с векторными расширениями;

  3. Объем кэш-памяти каждого процессорного чипа должен составлять не менее 15 MB;

  4. ОЗУ – 4 TB с технологией коррекции ошибок ECC (планки оперативной памяти должны иметь объем не менее 16 GB каждая);

  5. 4 (четыре) НЖМД SSD, емкостью не менее 160 GB каждый, с аппаратным зеркалированием;

  6. 2 (два) адаптера Gigabit Ethernet;

  7. 4 графических адаптера с объемом памяти не менее 2 GB GDDR5 с двумя интерфейсами DVI .

  8. Подключение к Дисковой системе хранения данных #2 без использования ЛВС, включая подключение к параллельным файловым системам;

  9. Сервер должен быть подключен к Системной консоли.

  10. Непосредственное подключение 2-х рабочих мест (удаление до 30м). Каждое рабочее место должно быть оборудовано монитором 30”, клавиатурой, мышью.

  11. Операционная система – единый образ операционной системы – ОС Вычислителя.

  12. Шасси для размещения компонентов в блэйд форм-факторе.

  13. Размещение шасси в серверной стойке.

  1. Не допускается реализация других сервисов и систем на аппаратной платформе данной системы.

  2. Результаты выполнения тестов общей производительности (п.E.3.5) для полной конфигурации сервера, должны быть не хуже значений, указанных в сопроводительной документации к тестированию.

B.2.5.3Сервер рабочей группы #1


Как минимум, Сервер должен удовлетворять следующим требованиям:

  1. Сервер реализуется в виде кластера без единой точки отказа, который базируется на конфигурации Сервер #1 (п.B.2.9.1).

Кластер должен быть подключен к Системной консоли #1 (п. B.2.2.1).

Кластер должен иметь независимую систему хранения данных, построенную на дисках SAS 10k, объемом не менее 10TB с аппаратным RAID5 и 10% набором запасных дисков, функционирующих в режиме горячей подмены.

Сервер должен иметь доступ к параллельной файловой системе без использования ЛВС.

Средства разработки и отладки приложений (п. B.4.8) должны также быть предложены для указанного кластера.

Операционная система – ОС Вычислителя.

Не допускается реализация других сервисов и систем на аппаратной платформе данной системы.


B.2.5.4Сервер рабочей группы #2


Как минимум, Сервер должен удовлетворять следующим требованиям:

Основные компоненты серверной платформы должны удовлетворять следующим минимальным требованиям:



  1. Сервер реализуется на базе конфигурации Сервер #1 (п.B.2.9.1).

Операционная система:

Windows Server x64 Edition с лицензией на 250 пользователей;

Сервер должен иметь доступ к параллельной файловой системе без использования ЛВС. Допускается замена указанного функционала на систему хранения данных, построенную на дисках SAS 10k, объемом не менее 10TB с аппаратным RAID5 и 10% набором запасных дисков, функционирующих в режиме горячей подмены.

Не допускается реализация других сервисов и систем на аппаратной платформе данной системы.


B.2.5.5Сервер технологического сегмента


Как минимум, Сервер должен удовлетворять следующим требованиям:

  1. Сервер реализуется на базе конфигурации Сервер #1 (п.B.2.9.1).

Сервер должен иметь доступ к параллельной файловой системе без использования ЛВС. Допускается замена указанного функционала на систему хранения данных, построенную на дисках SAS 10k, объемом не менее 10TB с аппаратным RAID5 и 10% набором запасных дисков, функционирующих в режиме горячей подмены.

Операционная система – Linux.

Не допускается реализация других сервисов и систем на аппаратной платформе данной системы.

B.2.6.3.1Сервер системы управления и мониторинга


Как минимум, Сервер должен удовлетворять следующим требованиям:

  1. Функциональность Сервера должна обеспечить управление и мониторинг Вычислительного комплекса и системы жизнеобеспечения.

  1. Сервер реализуется в виде кластера без единой точки отказа, который базируется на конфигурации Сервер #1 (п.B.2.9.1).

Требования к программному обеспечению приведены в п. B.4.5.

B.2.7.3.1Сервер управления доступом к ресурсам


Как минимум, Сервер должен удовлетворять следующим требованиям:

  1. Функциональность Сервера должна обеспечить централизованное назначение, распространение и контроль выполнения общих правил доступа к вычислительным и информационным ресурсам системы.

Аппаратная реализация должна базироваться на конфигурации Сервер #1 (п.B.2.9.1) с организацией отказоустойчивого дублирования.

Требования к программному обеспечению приведены в п. B.4.7.

Не допускается реализация других сервисов и систем на аппаратной платформе данной системы.

B.2.8.3.1Платформа виртуализации


Платформа виртуализации представляет собой совокупность серверных узлов, СХД и средств коммуникации, предназначенных для создания единого отказоустойчивого кластера для запуска виртуальных серверов.

Как минимум, ПВ должна удовлетворять следующим требованиям:



  1. Серверная часть ПВ должна быть реализована на аппаратных средствах, идентичных по всем характеристикам серверным средствам Вычислителя #1 (п. B.2.2);

  2. После размещения на ПВ всей предусмотренной данным Техническим заданием нагрузки, должно оставаться свободным не менее 50% аппаратных ресурсов (процессоры, память) для целей расширения использования ПВ Получателя;

  1. ПВ должна сохранять работоспособность в полном объеме при полном выходе из строя до 50% аппаратных ресурсов (серверов);

  2. Общее количество серверных узлов ПВ должно составлять не менее 36 (тридцати шести) серверов;

  3. Управление аппаратными средствами ПВ должно осуществляться средствами Системы управления и мониторинга Вычислителем #1;

  4. Коммуникационные/транспортные сети ПВ и Вычислителя #1 должны быть физически разделены;

  5. Транспортная сеть серверных узлов ПВ должна использоваться для доступа к Дисковой системе хранения данных #1, для обеспечения функционала безостановочной миграции ВМ между узлами ПВ, для межсерверного взаимодействия в ПВ и для межсетевого обмена трафиком виртуальных машин с ЛВС Получателя;

  6. Должен быть предусмотрен интерфейс между коммуникационной и транспортной сетями ПВ и ЛВС Получателя на уровне L2 модели OSI минимум двумя соединениями на скорости не менее 10 Gbps каждое;

B.2.9.3.1Типовые серверные конфигурации

B.2.9.1Сервер #1


Как минимум, Сервер должен удовлетворять следующим требованиям:

  1. 2 (два) процессорных чипа;

  2. Каждый процессор должен быть оригинальным 64-битным процессором, идентичным процессору Вычислителя;

  3. ОЗУ – 256 GB, частотой не менее 2400 MHz с технологией коррекции ошибок ECC;

  4. 2 (два) НЖМД SAS 10k, емкостью 600 GB каждый, с аппаратным зеркалированием;

  5. 2 (два) адаптера Ethernet 10/100/1000 Base-T;

  6. Требования к типу системы охлаждения не предъявляется;

  7. Избыточные вентиляторы с возможностью горячей замены;

  8. Избыточные блоки питания с возможностью горячей замены;

  9. Сервер должен быть подключен к Системной консоли #1 (п. B.2.2.1).

  10. Операционная система – ОС Вычислителя.

  11. Размещение в монтажном шкафу.


B.2.9.2Сервер #2


Как минимум, Сервер должен удовлетворять следующим требованиям:

  1. 2 (два) процессорных чипа;

  2. Каждый процессор должен быть оригинальным 64-битным процессором, идентичным процессору Вычислителя;

  1. ОЗУ – 128 GB, частотой не менее 2400 MHz с технологией коррекции ошибок ECC;

  2. 2 (два) НЖМД SAS 10k, емкостью 600 GB каждый, с аппаратным зеркалированием;

  3. 2 (два) адаптера Ethernet 10/100/1000 Base-T;

  4. Требования к типу системы охлаждения не предъявляется;

  5. Избыточные вентиляторы с возможностью горячей замены;

  6. Избыточные блоки питания с возможностью горячей замены;

  7. Сервер должен быть подключен к Системной консоли #1 (п. B.2.2.1).

  8. Операционная система – ОС Вычислителя.

  9. Размещение в монтажном шкафу.

B.2.9.3Сервер #3


Как минимум, Сервер должен удовлетворять следующим требованиям:

  1. 2 (два) процессорных чипа;

  2. Каждый процессор должен быть оригинальным 64-битным процессором, идентичным процессору Вычислителя;

  1. ОЗУ – 512 GB, частотой не менее 2400 MHz с технологией коррекции ошибок ECC;

  2. 2 (два) НЖМД SAS 10k, емкостью 600 GB каждый, с аппаратным зеркалированием;

  3. 2 (два) адаптера Ethernet 10/100/1000 Base-T;

  4. Избыточные вентиляторы с возможностью горячей замены;

  5. Избыточные блоки питания с возможностью горячей замены;

  6. Подключение к Дисковой системе хранения данных без использования ЛВС, включая подключение к параллельной файловой системе;

  7. Сервер должен быть подключен к Системной консоли #1 (п. B.2.2.1).

  8. Операционная система – ОС Вычислителя.

  9. Размещение в монтажном шкафу.

Каталог: upload -> iblock -> 185
iblock -> Перечень работ и услуг по содержанию и ремонту общего имущества в многоквартирном доме
iblock -> Часы-смартфон
iblock -> Руководство пользователя для телефона Apple iPhone 6
iblock -> Руководство по эксплуатации Методика калибровки Технические характеристики. Минимальный радиус кривизны поверхностей контролируемых изделий, 6мм
iblock -> Технологические карты
iblock -> Оптимизация процесса восстановления измененных и уничтоженных маркировочных обозначений на блоках двигателей транспортных средств
iblock -> Инструкция по эксплуатации Температурный gsm извещатель Grinson T7 Благодарим Вас за выбор температурного gsm извещателя Grinson T7


Поделитесь с Вашими друзьями:
1   2   3   4   5   6   7   8   9   10   ...   16


База данных защищена авторским правом ©vossta.ru 2019
обратиться к администрации

    Главная страница