meta data for this page
Differences
This shows you the differences between two versions of the page.
| Both sides previous revisionPrevious revisionNext revision | Previous revision | ||
| wiki:nas:xigmanas:benchmark [2022/10/09 21:57] – ↷ Page moved and renamed from blog:2022:10:09 to wiki:nas:xigmanas:benchmark mchus | wiki:nas:xigmanas:benchmark [2022/10/09 21:58] (current) – mchus | ||
|---|---|---|---|
| Line 1: | Line 1: | ||
| + | ====== Тестирование XigmaNAS с различными объемами оперативной памяти, | ||
| + | |||
| + | Практическое значение данного теста заключается | ||
| + | |||
| + | ===== Тестовая среда ===== | ||
| + | Тестирование проводится в среде виртуализации VMware vSphere 6.7, состоящей из одного сервера ESXi 6.7U3; | ||
| + | В качестве хранилища для NAS будет использован виртуальный диск, расположенный на одном твердотельном накопителе Micron M500DC 240GB; | ||
| + | |||
| + | Виртуальная машина, | ||
| + | |||
| + | ==== Инструменты === | ||
| + | |||
| + | В качестве инструмента тестирования будет использован Crystal Disk Mark версии 8.0.4 в режиме " | ||
| + | |||
| + | {{: | ||
| + | |||
| + | ===== Конфигурации виртуальной машины NAS ===== | ||
| + | |||
| + | ^ Параметр | ||
| + | | vCPU | 2 | ||
| + | | Объем памяти | ||
| + | | Режим установки | ||
| + | | Boot disk | 8GB | 8GB | 8GB | 8GB | 8GB | | ||
| + | | Data Disk1 | 33GB | 33GB | 33GB | 33GB | 33GB | | ||
| + | | Data Disk2 | 33GB | 33GB | 33GB | 33GB | 33GB | | ||
| + | | Network | ||
| + | |||
| + | ===== Ход тестирования ===== | ||
| + | ==== Установка XigmaNAS на систему с 512 МБ оперативной памяти ==== | ||
| + | |||
| + | При объеме оперативной памяти менее 2 ГБ загрузочный диск предоставляет только функционал установки системы без возможности запуска NAS Live CD; | ||
| + | {{: | ||
| + | |||
| + | Установка производится в режиме Full | ||
| + | |||
| + | {{: | ||
| + | |||
| + | Минимальный объем системного раздела для данного типа установки - 3 ГБ | ||
| + | |||
| + | {{: | ||
| + | |||
| + | Рекомендуемый объем раздела подкачки | ||
| + | |||
| + | {{: | ||
| + | |||
| + | На время установки в пике расход оперативной памяти составил 435 МБ. Стоит отметить что vSphere на данном графике в показателе Active Memory приводит информацию об суммарном объеме страниц памяти, | ||
| + | |||
| + | {{: | ||
| + | |||
| + | Установка завершена и система запускается с локального диска | ||
| + | |||
| + | {{: | ||
| + | |||
| + | Чистая система, | ||
| + | |||
| + | Произведем подключение к веб-интерфейсу. Веб интерфейс сообщает об использовании 110 МБ оперативной памяти из 452 доступных. | ||
| + | |||
| + | {{: | ||
| + | |||
| + | Создаем Software RAID массив RAID-0; | ||
| + | |||
| + | {{: | ||
| + | |||
| + | Форматируем виртуальный том в ФС UFS; | ||
| + | |||
| + | {{: | ||
| + | |||
| + | Добавляем точку монтирования | ||
| + | |||
| + | {{: | ||
| + | |||
| + | |||
| + | Включаем сервис SMB и фиксируем расход оперативной памяти. | ||
| + | |||
| + | {{: | ||
| + | |||
| + | Задаем сетевой ресурс для Crystal Disk Mark; | ||
| + | |||
| + | {{: | ||
| + | |||
| + | Запускаем тестовую нагрузку на систему | ||
| + | |||
| + | {{: | ||
| + | |||
| + | ==== 1024 МБ ==== | ||
| + | Увеличиваем объем виртуальной памяти машины до 1024 МБ и повторяем набор тестов. | ||
| + | |||
| + | {{: | ||
| + | |||
| + | На данном объеме имеет смысл попробовать создать пул ZFS. Форматируем диски для использования с ZFS | ||
| + | |||
| + | {{: | ||
| + | |||
| + | Создаем новый vdev типа stripe | ||
| + | |||
| + | {{: | ||
| + | |||
| + | Создаем пул. | ||
| + | |||
| + | {{: | ||
| + | |||
| + | Создаем Dataset с настройками по умолчанию. Без сжатия, | ||
| + | |||
| + | {{: | ||
| + | |||
| + | Запускаем нагрузку. Характер записи изменился, | ||
| + | |||
| + | {{: | ||
| + | |||
| + | <WRAP center round tip 60%> | ||
| + | Повторное тестирование показало незначительный рост производительности при использовании GEOM по сравнению с конфигурацией на 512МБ, поэтому дальнейшие тесты имеет смысл проводить только с ZFS. | ||
| + | </ | ||
| + | |||
| + | |||
| + | |||
| + | ===== Результаты ===== | ||
| + | ^ Объем | ||
| + | | 512 МБ | GEOM | Первый запуск | ||
| + | | ::: | ::: | Навигация по веб-интерфейсу | ||
| + | | ::: | ::: | Запуск SMBd | 256 МБ | ||
| + | | ::: | ::: | Тестирование производительности | ||
| + | | 1024 | GEOM | Запуск SMBd | | ||
| + | | | ::: | Тестирование производительности | ||
| + | | | ZFS | Запуск SMBd | | 374 МБ | | ||
| + | | | ||
| + | |||
| + | ^ Тест | ||
| + | | | ||
| + | | SEQ1M Q8T1 (MB/ | ||
| + | | ::: | W | 313 | 331 | 178 | ||
| + | | RND4K Q32T1 (MB/ | ||
| + | | ::: | W | 9,24 | ||
| + | | RND4K (IOPS) | ||
| + | | ::: | W | 2257 | ||
| + | | RND4K (μs) | R | 2 492 | 2 484 | 9 281 | ||
| + | | ::: | W | 9 280 | 5 754 | 36 143 | 19 522 | 13 119 | 7 592 | 8 573 | | ||
| + | |||
| + | ===== Выводы ===== | ||
| + | |||
| + | - Было показано файловый сервер SMB с 512 МБ оперативной памяти работоспособна при использовании GEOM - программного RAID. | ||
| + | - Продемонстрировано что производительность GEOM практически не растёт с увеличением объема оперативной памяти. Можно сделать также обратный вывод - с уменьшением свободной оперативной памяти под кэш производительность GEOM не падает. | ||
| + | - Высокие показатели тестов ZFS на чтение связаны с тем что читаемые данные все еще находятся в кэше системы после предварительной генерации. | ||
| + | - Показано что с ростом объемов оперативной памят - производительность массив ZFS растёт. | ||