Технические требования


A.6Архитектура существующей информационной системы



страница4/16
Дата28.11.2017
Размер1.74 Mb.
1   2   3   4   5   6   7   8   9   ...   16

A.6Архитектура существующей информационной системы


В 2009 году в ММЦ в г.Москве и РСМЦ в гг Новосибирск и Хабаровск установлены высокопроизводительные вычислительные комплекс, в 2011-2013 годах вычислительные возможности комплексов расширены.

Структура комплекса состоит из следующих основных компонентов (Рисунок 1 ):



схема нового проекта 5

Рисунок 1 Типовая структурная схема вычислительных комплексов ММЦ в г. Москве, РСМЦ в г.г. Новосибирск и Хабаровск.

Вычислитель выполняет функции оперативного и научно-исследовательского счета, ресурсной поддержки научно-исследовательских разработок. Дифференциация задач выполняется по технологическим схемам каждого из центров установки. В комплект системы входит системная консоль организации доступа ко всем узлам системы для инженерного персонала.

Система управления данными состоит из:



  • дисковой системы хранения данных, обеспечивающей хранение данных на накопителях ЖМД и предоставляющей ресурсы для подсистем ввода-вывода Вычислителей, серверов баз данных и оперативных систем;

  • ленточной системы хранения данных, состоящей из автоматизированной ленточной библиотеки,

  • серверов системы управления данными, включая серверы архивирования и резервного копирования, иерархического хранения данных.

Серверы оперативной системы и баз данных включают в себя вычислительные серверы, локальные серверы оперативного назначения, в число которых входят серверы обмена оперативной информацией, серверы информационных систем Росгидромета, файловые серверы, обеспечивающие файловый и транзакционный обмен данными для клиентов ЛВС.

Серверы общего назначения обеспечивают функционирование основных сетевых сервисов, таких как DHCP, NTP, локальных DNS и почтового сервиса.

Абонентские рабочие места оперативного и научно-исследовательского назначения включают персональные компьютеры и станции визуализации оперативного и неоперативного персонала.

Локальная вычислительная сеть объединяет все компоненты информационной системы. Связь с существующей ЛВС осуществляется посредством двух интерфейсов Ethernet 10/100/1000 Base-T. Для обеспечения функционирования осуществляется мониторинг и управление сетевым оборудованием.

Вычислители выполняют функции оперативного и научно-исследовательского счета, ресурсной поддержки научно-исследовательских разработок. Дифференциация задач выполняется по технологическим схемам центра установки. В комплект системы входит системная консоль организации доступа ко всем узлам системы для инженерного персонала.

Таблица 1 содержит основные характеристики установленных Вычислительных комплексов.

Таблица 1 Конфигурация информационной системы


Центр Росгидромета

Пиковая произво-

дитель-ность TFlops (1012)



Тип вычисли-теля

Кол-во CPU/

CPU в узле



ОЗУ

Тбайт


(1012)/GB на ядро

Производитель

(фирма/страна)



Дисковая подсистема

Тбайт(1012)



ММЦ Москва

11

SGI Altix 4700

1664 / 128

6.6/4


SGI(США)

180TB=

60TB


SGI IS4000

+

120TB SGI IS10000



16

SGI Altix ICE8200

1408/8

2.8/2

SGI(США)

35

РСК ”Торнадо”

1152/12

4.608/4

РСК (Россия)

300TB

IBM Storwize V7000, IBM System Storage DCS3700






14

SGI ICE-X

720/20

2.304/3.2

SGI(США)




2

SGI UV 2000

96/96

1.024/10.6

SGI(США)

РСМЦ Новосибирск

0.7

G-Scale S4700

104 / 104

0.2

Крафтвэй

(Россия)


12.3TB SGI IS4000

РСМЦ Хабаровск

0.7

G-Scale S4700

104 / 104

0.2

Крафтвэй

(Россия)


12.3TB SGI IS4000

Кластер (Вычислитель #C1) SGI Altix4700 пиковой производительностью 11 TFlops построен на 832 2-х ядерных процессорах Intel Itanium 9140М с оперативной памятью 6.6 TB (1664 процессорных ядер, 4 GB на ядро). Вычислитель представляет собой систему с общей памятью, способен масштабироваться до 1024 ядер в рамках единого образа операционной системы. Архитектура SGI NUMAflex обеспечивает наилучшие (по проведенным тестированиям) значения полосы пропускания и латентности. Шина взаимодействия SGI NUMALink обеспечивает высокоскоростное взаимодействие между процессорами системы. На текущий момент Вычислитель логически делится на партиции/узлы (13 узлов): 1 партиция = 1 вычислительная стойка. В каждой партиции 32 виртуальных вычислительных узла (нод): 4 ядра + 16ГБ оперативной памяти. Две виртуальных ноды зарезервированы для системных процессов (8 ядер + 32ГБ памяти). Каждая аппаратная партиция имеет системные жесткие диски SAS с полезным объемом 300 GB с зеркалированием и высокопроизводительный доступ к Дисковой системе хранения данных через параллельную файловую систему SGI CXFS. Кластер функционирует под управлением операционной системы SLES 11SP1 (ia64).

Кластер (Вычислитель #C2) SGI Altix ICE8200 пиковой производительностью 16 TFlops построен на 352 4-х ядерных процессорах Intel Quad Core Xeon e5440 с оперативной памятью 2.8TB (1408 процессорных ядер, 2 GB на ядро). Вычислитель представляет собой широко распространенный тип блейд-систем, имеет 64-разрядную архитектуру EM64T/AMD64. Вычислитель состоит из 3-х вычислительных стоек, каждая из которых представляет собой: 4 IRU (Individual Rack Unit — блейд шасси), 15 вычислительных блейдов (лезвий), 8 ядер и 16GB оперативной памяти в каждом блейде. В качестве шины взаимодействия используется технология Infiniband DDR. Кластер использует бездисковый принцип работы - образ операционной системы разворачивается в оперативной памяти. Общая файловая система строится на базе технологии NFS over Infiniband. Кластер функционирует под управлением операционной системы SLES 10SP2 (x86_64).

Кластер (Вычислитель #C3) РСК “Торнадо” пиковой производительностью 35 TFlops построен на 192 8-и ядерных процессорах Intel E5-2690 с оперативной памятью 6,1 TB (1536 процессорных ядра, 4 GB на ядро). Вычислитель имеет 64-разрядную архитектуру EM64T/AMD64. В качестве шины взаимодействия используется технология Infiniband QDR. Общая файловая система строится на базе технологии NFS для подключений к файловой системе кластеров SGI и параллельной файловой системе GPFS для непосредственного подключения узлов кластера к дисковым массивам. Кластер функционирует под управлением операционной системы SLES 11SP2 (x86_64).

Кластер (Вычислитель #C4) SGI ICE-X пиковой производительностью 14 TFlops построен на 72 10-и ядерных процессорах Intel E5-2670v2 с оперативной памятью 2,3 TB (720 процессорных ядер, 3,2 GB на ядро). Вычислитель имеет 64-разрядную архитектуру EM64T/AMD64. В качестве шины взаимодействия используется технология Infiniband FDR, топология Enhanced Hypercube IB Interconnect Topology. Общая файловая система строится на базе технологии NFS для подключений к файловой системе кластеров SGI и параллельной файловой системе GPFS для непосредственного подключения узлов кластера к дисковым массивам. Кластер функционирует под управлением операционной системы SLES 11SP3 (x86_64).

Вычислитель #C5 SGI UV2000 пиковой производительностью 2 TFlops представляет собой систему с глобальной общей оперативной памятью, построен на 16 шести ядерных процессорах Intel E5-4617 с оперативной памятью 1 TB (96 процессорных ядер, 10 GB на ядро). Вычислитель имеет 64-разрядную архитектуру EM64T/AMD64. Общая файловая система строится на базе технологии NFS для подключений к файловой системе кластеров SGI и параллельной файловой системе GPFS для непосредственного подключения Вычислителя к дисковым массивам. Вычислитель функционирует под управлением операционной системы SLES 11SP3 (x86_64).

Дисковая подсистема общим объемом 180 TB имеет иерархическую структуру: 60TB SGI InfiniteStorage 4000 system (Дисковая система хранения данных #С1) и 120TB SGI InfiniteStorage 10000 (Дисковая система хранения данных #C2). Решение по Сети хранения данных (SAN) базируется на двух коммутаторах Brocade SilkWorm® 48000 (48K) и файловой системе SGI CXFS, которая является параллельной файловой системой, направляющей поток данных через SAN. CXFS обеспечивает соединение всех необходимых технологических серверов и узлов Вычислителя #C1 с Дисковой системой #С1 хранения данных. Файловая система работает совместно с SGI DMF – системой иерархического управления хранением SGI Hierarchical Storage Management, которая обеспечивает миграцию данных между дисковыми подсистемами. Вычислитель #C2 подключается к параллельной файловой системе непосредственным отказоустойчивым подключением к серверам метаданных (SGI Altix 450).

Дисковая система хранения данных #C3 строится на базе дисковых массивов 14 TB IBM Storwize V7000 , 300 TB IBM System Storage DCS3700. Решение по Сети хранения данных реализовано путем установки двух FC коммутаторов Express IBM System Storage SAN24B-4 с подключением к коммутаторам SW 48K и файловой системе GPFS, которая является параллельной файловой системой. GPFS обеспечивает соединение всех необходимых технологических серверов и узлов Вычислителя #C3 с Дисковой системой хранения данных #C3. Миграция данных между дисковыми подсистемами осуществляется также средствами GPFS.

Для обеспечения функционирования и управления компонентами вычислительной инфраструктуры используются Служба каталогов Microsoft Windows и ассоциированные с ней общесистемные службы. В число этих служб входят инфраструктура общего каталога на базе Microsoft Active Directory, базовые сетевые сервисы DHCP, DNS, NTP. В качестве почтовой серверной службы используется Microsoft Exchange, в качестве унифицированных коммуникаций используется Microsoft Lync.

ЛВС построена на базе:


  • Уровень ядра – коммутаторы Cisco 6509

  • Уровень распределения – коммутаторы Cisco 4948 с подключением к коммутаторам уровня ядра на скорости 10 Gbps по оптоволоконному каналу связи

  • Уровень резервирования серверной фабрики – коммутаторы Cisco 4948 с подключением к коммутаторам уровня ядра на скорости 1 Gbps по оптоволоконному каналу связи или UTP-соединению.

  • Уровень доступа – коммутаторы Cisco 2960 и Cisco 3650 с подключением к коммутаторам ядра и/или уровня распределения на скорости 1 Gbps по оптоволоконному каналу связи или UTP-соединению.

Система безопасности сетевой инфраструктуры построена на базе межсетевых экранов Cisco ASA серии 5500, серверов доступа Cisco ACS.

Система управления ЛВС реализована с использованием интегрированного решения Cisco LMS (элемент-менеджер активного оборудования) и HP OpenView NNMi (энтерпрайс-менеджер оборудования). Анализ сетевого трафика осуществляется с использованием Adventnet NetFlow Analyzer Professional. Мониторинг критически важных уязвимостей информационно-сетевых ресурсов обеспечивает сканер PositiveTechnologies XSpider Professional Edition.

Для управления рабочими местами на базе операционных систем Windows Server и SLES используется Microsoft System Center.

Для организации счета на вычислительных комплексах используется централизованная система пакетной обработки заданий Altair PBS Pro.

На базе указанных выше вычислительных систем производится оперативный и научно-исследовательский счет.

В специализированных региональных центрах в г.г. Новосибирск и Хабаровск пиковая производительность вычислителя компании G-Scale S4700 ЗАО «Крафтвэй Корпорэйшн ПЛС» на базе 52 процессоров Intel Itanium 9140М составляет 0,7 TFlops. Емкость дискового хранилища для центров в г.г. Новосибирск и Хабаровск – 12.3 TB на базе оборудования SGI InfiniteStorage 4000.

В настоящее время ресурсы комплексов полностью исчерпаны. Оперативные задачи занимают весьма существенную долю вычислительных ресурсов комплексов, что приводит к серьезному ограничению на использование ресурсов для научно-исследовательских работ по развитию и испытанию перспективных моделей и систем усвоения данных наблюдений.


Каталог: upload -> iblock -> 185
iblock -> Перечень работ и услуг по содержанию и ремонту общего имущества в многоквартирном доме
iblock -> Часы-смартфон
iblock -> Руководство пользователя для телефона Apple iPhone 6
iblock -> Руководство по эксплуатации Методика калибровки Технические характеристики. Минимальный радиус кривизны поверхностей контролируемых изделий, 6мм
iblock -> Технологические карты
iblock -> Оптимизация процесса восстановления измененных и уничтоженных маркировочных обозначений на блоках двигателей транспортных средств
iblock -> Инструкция по эксплуатации Температурный gsm извещатель Grinson T7 Благодарим Вас за выбор температурного gsm извещателя Grinson T7


Поделитесь с Вашими друзьями:
1   2   3   4   5   6   7   8   9   ...   16


База данных защищена авторским правом ©vossta.ru 2019
обратиться к администрации

    Главная страница