meta data for this page
  •  

Differences

This shows you the differences between two versions of the page.

Link to this comparison view

Next revision
Previous revision
enterprise:hitachi:description:vsp_g1000 [2021/02/01 20:00] – external edit 127.0.0.1enterprise:hitachi:description:vsp_g1000 [2021/02/11 16:48] (current) mchus
Line 1: Line 1:
 +====== Дисковый массив Hitachi Virtual Storage Platform G1000 ======
  
 +{{ :enterprise:hitachi:description:vsp_g1000:20210202-202058.png }}
 +
 +Система хранения данных Hitachi Virtual Storage Platform (VSP) является флагманским продуктом в линейке Hitachi Data Systems. Данная платформа представляет собой восьмое поколение высоконадежных и производительных систем уровня предприятия от Hitachi.  Ключевой особенностью платформы является уникальная архитектура, предоставляющая возможности гибкого масштабирования с целью достижения необходимой производительности, емкости и виртуализации СХД различных производителей. Система обладает широким функционалом, который позволяет решать любой круг задач, связанных с хранением и предоставлением доступа к данным.
 +
 +VSP G1000 сочетает в себе устоявшиеся многолетние принципы построения комплексов для хранения информации, наряду с абсолютно новыми, передовыми подходами и технологиями. 
 +
 +Ключевой особенностью платформы является уникальная архитектура хранения данных, предоставляющая возможности гибкого масштабирования с целью достижения высокой производительности и емкости, а также виртуализации СХД различных производителей. Система обладает широким функционалом, который позволяет решить любой круг задач, связанных с хранением и предоставлением доступа к данным. Кроме этого, новые функциональные возможности программного обеспечения этой платформы, основанные на технологии глобальной виртуализации в рамках нескольких систем VSP G, позволяют обеспечить гибкость ИТ-инфраструктуры и снизить совокупную стоимость владения.
 +===== Архитектура и производительность =====
 +
 +Платформа VSP G1000 основана на полностью коммутируемой архитектуре, позволяющей всем компонентам системы иметь одновременный доступ друг к другу через специализированный матричный коммутатор. Основу данной архитектуры составляет высокопроизводительный интерфейс PCIe 3.0. Система сочетает в себе классическую проверенную архитектуру и вольностью переработанную и обновленную аппаратную составляющую, что обеспечивает высокую производительность платформы.
 +
 +{{ :enterprise:hitachi:description:vsp_backend.png?nolink&600 |}}
 +
 +Платформа VSP G1000 обеспечивает масштабирование до 2 контрольных модулей (CU), каждый из которых включает в себя до 4 матричных коммутаторов, совмещенных с контроллерами кэш-памяти. Матричный коммутатор объединяет между собой основные компоненты системы – VSD (Virtual Storage Director), FED (Front End Director) и BED (Back End Director). Для надежности все компоненты устанавливаются в систему попарно. В минимальной, конфигурации (в качестве виртуализатора систем хранения других производителей) система может поставляться в следующем составе:
 +
 +  * Одна пара модулей внешних подключений (FED). Каждая плата FED содержит специализированный контроллер ввода/вывода, а также набор портов FC, FCoE, либо FICON
 +  * Одна пара матричных коммутаторов, совмещенных с кэш-памятью, минимальный объем которой составляет 64 ГБ. Из них 48 ГБ выделены под данные, а 24 ГБ зарезервированы под служебные нужды.
 +  * Одна пара VSD-модулей. Каждый модуль VSD – содержит восьмиядерный процессор Intel Xeon и являющаяся арбитром системы
 +
 +Система G1000 реализует новый метод распределения нагрузки. Предидущее поколение подразумевало распределение нагрузки по адресации данных на процессоры ввода/вывода, то есть на FED- и BED-платы. В VSP G1000 для адресации используются специально выделенные процессоры Intel, а процессоры ввода/вывода выполняют свою прямую задачу. При этом каждый процессор имеет собственную энергонезависимую память, в которой хранится служебная информация. В кэш-памяти резервируется пространство, в котором сохраняются служебные данные со всех процессоров ввода/вывода. В случае необходимости подключения внутренних дисков к СХД, добавляется модуль BED. В случае роста потребностей в вычислительных ресурсах все внутренние мощности контроллерного модуля (CU) могут быть удвоены, а вместо четырех плат FED могут быть также установлены дополнительные VSD модули, что приведет к существенному увеличению производительности на операциях случайного чтения/записи.
 +
 +При использовании двух контрольных модулей (CU) 4 матричных коммутатора одного из них соединяются с 4-мя коммутаторами другого модуля по принципу «каждый с каждым». Коммутаторные подключения осуществляются с помощью специальных оптических кабелей, что позволяет разнести контроллеры системы на расстояние до 100 метров без потери производительности и надежности. Общая пропускная способность всех коммутаторов составляет  896 ГБ/с, что в несколько раз превосходит показатели предыдущей системы хранения данных VSP.
 +
 +===== Масштабируемость =====
 +
 +Новая ОС СХД позволяет создавать виртуальные системы хранения данных как в рамках одной системы, так и в рамках нескольких систем. Обеспечивается функционал логического разделения задачи обработки и хранения одного пула информации от другого, создание геораспределенных конфигураций в рамках нескольких систем хранения VSP G, включая обеспечения доступа к данным в пределах двух площадок в режиме Active/Active. Новые возможности позволяют повысить гибкость использования систем наряду с обеспечением возможностей внедрения принципиально новых архитектурных решений.
 +
 +Расширение дисковой емкости в рамках одного CU поддерживается до более чем тысячи дисков в 3-х серверных стойках. Следующий этап увеличения объема и производительности подразумевает расширение дополнительным контроллерным модулем с выделенными дисковыми полками. Таким образом максимальная конфигурация системы размещается в шести серверных стойках и содержит более двух тысяч дисков и флэш-модулей.
 +===== Мобильность и эффективность =====
 +
 +Системы хранения данных разных производителей могут быть консолидированы в единую систему при помощи функционала виртуализации VSP G1000 и программного обеспечения Hitachi Universal Volume Manager. При этом, в отличие от подавляющего большинства систем хранения других производителей, массивы VSP G позволяют использовать данный функционал не только для миграции данных со старых систем хранения, но и в первую очередь для повышения производительности старых систем хранения, предоставления дополнительных функциональных возможностей и консолидации всего парка систем хранения. Возможности виртуализации внешних массивов не лицензируются отдельно и входят в базовый пакет лицензий новой операционной системы SVOS.
 +
 +Производительность наиболее востребованных данных и ресурсов может быть значительно повышена за счет функционала динамического перемещения данных между уровнями хранения при помощи функционала Hitachi Dynamic Tiering, входящего в пакет Hitachi Command Suite Data Mobility.
 +
 +С помощью механизма Hitachi Dynamic Provisioning,  обеспечивающего динамическое выделение пространства для данных и виртуализации внутренних дисковых ресурсов в рамках единого виртуального пула, обеспечивается возможность повышения эффективности использования дисковой емкости системы.
 +
 +Поддержка модулей Flash Module Drive, обеспечивающих до 3,2 ТБ флэш-памяти позволяет увеличить производительность системы хранения данных до сотен тысяч IOPS. При этом подобная производительность может быть достигнута силами лишь нескольких модулей, что позволяет существенно снизить энергопотребление, размеры и вес всего комплекса обработки данных.
 +
 +
 +===== Надежность и доступность =====
 +
 +Платформа HDS VSP G характеризуется высокой надежностью, которая достигается за счет полного дублирования и возможности горячей замены комплектующих, таких как диски, контроллеры ввода/вывода, блоки питания и вентиляторы. Таким образом, в системе полностью отсутствуют единые точки отказа, что исключает простои или потерю данных при выходе из строя любых компонентов системы.
 +
 +Функционал Hitachi ShadowImage и Hitachi Thin-Image, предоставляет широкие возможности по созданию полных клонов томов и моментальных снимков данных на определенный момент времени, а также быстрого восстановления консистентных копий приложений, например Microsoft Exchange или Microsoft SQL Server. Данные пакеты, вместе с программным обеспечением Hitachi Replication Manager, служащим для управления всеми процессами внутрисистемной репликации, входят в пакет лицензий Hitachi Local Replication.
 +
 +===== Защита данных =====
 +
 +Система поддерживает механизмы внешней синхронной и асинхронной репликации при помощи ПО Hitachi TrueCopy Synchronous и Hitachi Universal Replicator, что позволяет создавать территориально-распределенные катастрофоустойчивые решения, обеспечивающие непрерывную доступность данных и защищающие их от неконтролируемых внешних воздействий. При этом данные механизмы позволяют спроектировать исключительно отказоустойчивую инфраструктуру с возможностью разнесения данных на несколько центров обработки данных. Все эти лицензии и программные пакеты входят в специализированный пакет Hitachi Remote Replication.
 +
 +Благодаря появлению новой операционной системе SVOS, прежний функционал Hitachi High Availability Manager (HAM) получил новую ступень развития в рамках решения Global Active Device (GAD), который позволяет приложениям, использующим дисковый массив, переключаться на резервную систему хранения в режиме реального времени в случае выхода основного массива из строя. Процесс переключения прозрачен для серверов и приложений и не требует прерывания работы. Это решение представляет собой аппаратный кластер из систем хранения данных и гарантирует высокую доступность критически важных ресурсов. В качестве дополнительных функциональных возможностей в новом подходе GAD, появилась возможность работать с обеими системами хранения, объединенными в единый кластер в режиме Active/Active. При этом серверы могут обращаться на чтение или запись к данным через любую из систем хранения.
 +
 +===== Энергопотребление и габариты =====
 +
 +Система поддерживает возможность установки в стандартные серверные стойки, обеспечивает использование 2.5-дюймовых дисков, отсутствие габаритных батарей, наличие флэш-модулей повышенной плотности хранения. Данные особенности позволили существенно уменьшить вес системы, энергопотребление и габариты. Система является в 1,5 раза более экономичной в сравнении с предыдущим поколением. Охлаждение системы VSP G1000 осуществляется спереди назад, что позволяет встраивать ее в существующую систему горячих и холодных коридоров, и более эффективно использовать существующую систему охлаждения. Благодаря отказу от специализированных дисковых полок, плотность хранения возросла - в стандартную стойку 42 U допускается установка одновременно до 384 механических дисков и до 48 флэш-модулей FMD.
 +
 +
 +
 +
 +^  Характеристики  ^  Значение  ^  Поставляемая конфигурация  ^
 +|  Количество дисков  |  0 – 576 FMD  |  |
 +| ::: |  0 – 384 SFF SSD  |  |
 +| ::: |  0 – 2304 SFF HDD  |  |
 +| ::: |  0 – 1152 LFF HDD  |  |
 +|  Емкость  |  6912 ТБ (6 ТБ 3.5" NL-SAS)  |  |
 +| ::: |  2764 ТБ (1200 ГБ 2.5" SAS)  |  |
 +| ::: |  675 ТБ (3200 ТБ 2.5" FMD)  |  |
 +|  Поддерживаемые диски  |  300 ГБ SAS (2.5", 15K RPM)  |  |
 +| ::: |  600 ГБ SAS (2.5", 15K RPM)  |  |
 +| ::: |  600 ГБ SAS (2.5", 10K RPM)  |  |
 +| ::: |  900 ГБ SAS (2.5", 10K RPM)  |  |
 +| ::: |  1200 ГБ SAS (2.5", 10K RPM)  |  |
 +| ::: |  4 ТБ NL-SAS (3.5", 7.2K RPM)  |  |
 +| ::: |  6 ТБ NL-SAS (3.5", 7.2K RPM)  |  |
 +|  Поддерживаемые SSD  |  400 ГБ (MLC)  |  |
 +| ::: |  800 ГБ (MLC)  |  |
 +|  Поддерживаемы FMD  |  1.6 ТБ  |  |
 +| ::: |  3.2 ТБ  |  |
 +|  Максимальное количество дисковых полок  |  12 - 16U 192 SFF (2.5" |  |
 +| ::: |  12 - 16U 96 LFF (3.5" |  |
 +| ::: |  12 - 8U 48 FMD  |  |
 +|  Блочный модуль  |||
 +|  Размер  |  10U  |  |
 +|  Количество Virtual Storage Directors на блочный модуль  |  FIXME  |  |
 +|  Максимальное количество блочных модулей на систему  |  2  |  |
 +|  Внутренняя пропускная способность  |  896 ГБ/с  |  |
 +|  Внутренние диски  |  Н/Д  |  |
 +|  Интерфейсы front-end  |  FC: 8 Гб/с / 16 Гб/с   | |
 +| ::: |  FICON: 8 Гб/с  |  |
 +| ::: |  FCoE: 10 Гб/ |  |
 +|  Максимальное количество портов front-end  |  192 FC 8 Гб/с  |  |
 +| ::: |  96 FC 16 Гб/с  |  |
 +| ::: |  176 FICON 8 Гб/с  |  |
 +| ::: |  176 FCoE 8 Гб/с  |  |
 +|  Интерфейсы back-end  |  SAS: 6 Гб/с  |  |
 +|  Максимальное количество портов back-end  |  128  |  |
 +|  Максимальный объем кэш-памяти на систему  |  2048 ГБ  |  |
 +|  Виртуализация внешних СХД  |  Функционал доступен  |  |
 +|  Файловый модуль  |||
 +|  Количество узлов  |  FIXME  |  |
 +|  Размер узла  |  3U, 5.1" (130mm)/17.2" (437mm)/27" (685mm)  |  |
 +|  Объем памяти на узел  |  46 – 108 ГБ  |  |
 +|  Интерфейсы front-end  |  Ethernet: 10 Гб/ |  |
 +|  Максимальное количество портов front-end на узел  |  4  |  |
 +|  Интерфейсы back-end  |  FC: 8 Гб/с  |  |
 +|  Максимальное количество портов back-end на узел  |  4  |  |
 +|  Поддерживаемые протоколы  |  CIFS, NFS, FTP, iSCSI, HTTP  |  |
 +|  Функциональные возможности комплекса  |||
 +|  Количество HDP пулов  |  128  |  |
 +|  Максимальное число виртуальных машин хранения  |  8  |  |
 +|  Максимальное число групп ресурсов  |  1023  |  |
 +|  Макс. размер LUN  |  60 ТБ  |  |
 +|  Макс. Количество LUN  |  65280  |  |
 +|  Макс. количество файловых систем  |  128  |  |
 +|  Макс. количество снимков (snapshot)  |  1024 на файловую систему  |  |
 +| ::: |  1024 на том (LUN)  |  |
 +
 +{{tag>storage fc block vsp_g1000 storage_virtualization}}