- How To: Windows Server / XP / 2000 / 2003 ISCSI Initiator Configuration
- How do I install MS ISCSI Initiator?
- Configuration
- How do I formation volume under Windows server?
- Настройка и подключение iSCSI-диска в Windows Server
- Настройка iSCSI target в Windows Server
- Настройка iSCSI Initiator в Windows Server 2019
- База знаний wiki
- Содержание
- iscsi подключение к схд сервера под windows
- Задача:
- Решение:
- Терминология iSCSI
- Установка и подключение сетевой карты
- Проверка доступности
- Настройка Инициатора
- Имя инициатора
- Аутентификация
- UltraPath
- Тестирование производительности
- Test-1
- Test-2, Test-3
- Пример результатов тестирования
- Записки IT специалиста
- Настройка iSCSI-инициатора в Debian или Ubuntu
- Превращаем старый сервер в iSCSI Target с помощью Enterprise Storage OS (ESOS)
How To: Windows Server / XP / 2000 / 2003 ISCSI Initiator Configuration
Microsoft provides iSCSI software initiator which enables connection on following operating system:
a) Windows XP
b) Windows Server 2000
c) Windows Server 2003 etc.
How do I install MS ISCSI Initiator?
Visit Microsoft download center to grab iSCSI initiator software. Download and install the Windows ISCSI initiator.
Configuration
Once installed click on Start > Programs > Microsoft iSCSI Initiator
Select the Discovery tab.
Look for Target Portals
Click on the Add button
Type your ISCSI_TARGET_HOST_OR_IP into the IP address or DNS name input box
Set port to 3260
Next, click on the Advanced tab
Select General tab
Select CHAP logon information
Type your username into the Username box
Type your password into the Target secret box
Save changes by pressing OK > OK
Select the Targets tab
Select the new target from the Targets selection list.
Click on the Log on… button
Select the Automatically restore this connection when the system boots check box
Click on the Advanced button.
Select General tab enable CHAP logon information by selecting the check box. Fill up the details.
How do I formation volume under Windows server?
Open Computer Management
Select Disk Management from the Storage
You should see a disk in the right pane that labeled as “Unknown” and “Not Initialized“.
Right click on the disk and select Initialize Disk
Right click on the partition information box on the right hand side of the disk information box and select the New Partition. button.
Now just follow the partition wizard and format the disk.
🐧 Get the latest tutorials on Linux, Open Source & DevOps via RSS feed or Weekly email newsletter.
🐧 9 comments so far. add one ↓
Am I the only Linux user that finds these instructions far more friendly than the previous (Linux) instructions? I completely understand that scripting is absolutely necessary for scaling deployment, but a GUI is almost infinitely more effective for the learning curve. Lesson: every command line interface should have a GUI front-end.
And every GUI should have its command…
Thank you! This is very helpful as I was having some problems with iSCSI today.
Thanks again!
how to install iscsi initiator.
Hi,
I have a problem with my Iscsi, issue i lose connection to the target from time to time, most likely it’s a network hiccups, knowing that it’s directly connected to the targets there are no hiccups. my questions is”Is there anyway to watch the hiccups, or if there are any logs beside the windows event log i can check to see if the connection was lost or it’s a false alarm?”
Hi,
I am trying to understand ISCSI and using it in Windows XP Pro- and maybe with initiator. What I am trying to accomplish is to connect two windows XP computers over ISCSI point to point connections (Let’s say each computer has a quad port PCIe ISCSI adapter in it). What I wan to accomplish here is moving windows files from one computer to the next at very high data rates (Let’s say 400 MBytes/s), hence the ISCSI. Will I be able to “see” the other computers’ files in windows explorer and can I map a shared drives and simply copy files this way? Will I get the expected data rates? Suggestions?
Thanks so much,
Mark
Hi, very helpful,, but how do you create a iscsi target in windows xp, thanks bro.
Thanks for posting the instructions. I could not get the configuration quite right until I found this post! Now my iSCSI is formatting along nicely and soon enough, (well in a while because I’m formatting a TB, could take a bit) I’ll be experiencing my first ever backup to an iSCSI device. I can’t wait, they tell me it’s a little quicker than simply employing the NAS. So, Thanks again!
Настройка и подключение iSCSI-диска в Windows Server
Протокол iSCSI (Internet Small Computer System) представляет собой протокол SCSI, работающий с системами хранения данных поверх протокола IP. С помощью iSCSI вы сможете подключать ваши сервера к сетевым хранилищам по обычной TCP/IP сеть без использования FC. В этой статье мы рассмотрим, как настроить iSCSI-хранилище на одном Windows Server 2019 и использовать его на других серверах(в Windows Server 2016 и 2012 R2 все настраивается аналогично). Первый пример использования iSCSI: файловому серверу необходимо дополнительное место, и мы по сети подключаем к нему виртуальный диск с другого сервера-хранилища по iSCSI. Другой пример – построение отказоустойчивого кластера, когда для нескольких серверов необходимо общее хранилище.
Для использования ISCSI-диска нужно на сервере-хранилище настроить виртуальный диск (это обычный vhd/vhdx файл) и опубликовать его в виде iSCSI таргета, к которому подключаются iSCSI инициаторы (другие сервера и устройства).
Настройка iSCSI target в Windows Server
В мастере создания виртуального iSCSI диска нужно выбрать физический раздел, на котором его нужно разместить. Далее нужно присвоить имя iSCSI диска, указать размер диска и его тип (Fixed Size, Dynamically expanding или Differencing), имя iSCSI таргета.
На шаге Access Servers нужно указать серверы (iSCSI инициаторы), которые смогут подключаться к данному iSCSI таргет, выбрав один из вариантов подключения:
Пусть используется вариант с IP-адресом.
Можно создать iSCSI диск с помощью PowerShell. Создадим виртуальный диск размером 200 Гб:
По умолчанию создается динамический диск размером 4,096 Кб, независимо от того, сколько было указано параметром Size. Динамический диск будет расширяться по мере необходимости.
Если нужно использовать диск фиксированного размера (такие диске резервируют место на физическом носителе при создании), то его создать той же командой с дополнительным параметром UseFixed:
Далее таргету присваивается имя, здесь же можно разрешить к нему доступ с IP-адреса сервера-инициатора:
При желании вместо IP-адреса можно использовать IQN имя (iSCSI Qualified Name – уникальный идентификатор iSCSI устройства в сети):
Затем желательно проверить результат:
Get-IscsiServerTarget | fl TargetName, LunMappings
Настройка iSCSI Initiator в Windows Server 2019
Следующий шаг – подключение к созданному iSCSI диску со второго сервера-инициатора. Перейдите в панель управления Control Panel, запустите iSCSI initiator (или выполните команду iscsicpl.exe ).
В консоли управления службами services.msc поставьте автоматический тип запуска для службы Microsoft iSCSI Initiator Service, Или используйте команду:
Перейдите на вкладку Discovery, нажмите на кнопку Discover Portal и введите ввести IP-адрес первого сервера (iSCSI-таргет). Чтобы трафик ходил только через определённый сетевой интерфейс, нужно нажать кнопку Advanced, и изменить значения по умолчанию в выпадающих списках: Local Adapter –> Microsoft iSCSI Initiator, Initiator IP –> 172.17.244.8.
Осталось инициализировать сам iSCSI-диск, который сначала находится в состоянии Offline. Для этого на сервере-инициаторе необходимо в консоли Disk Management в контекстном меню нового диска выбрать пункт Online, а затем – Initialize Disk. Создайте на новом диске один или несколько разделов, присвойте метку и букву диска. Отформатируйте в файловой системе NTFS.
Для быстрой инициализации и форматирования нового диска можно использовать следующий однострочный PowerShell (см. пример в статье об управления дисками и разделами из PowerShell):
Теперь этот виртуальный диск, подключенный с другого сервера по протоколу iSCSI можно использовать как обычный локально подключенный диск.
Чтобы подключится к iSCSI таргет выполните команду:
Если использовалась дополнительная проверка аутентификации CHAP, то необходимо будет это указать, используя следующую конструкцию:
Если вы хотите обеспечить высокую доступность и балансировку нагрузки для iSCSI дисков, можно использовать несколько избыточные сетевые компоненты (сетевые карты, коммутаторы) и модуль MPIO.
База знаний wiki
Продукты
Статьи
Содержание
iscsi подключение к схд сервера под windows
Задача:
Как настроить подключение к блочному устройству на системе хранения по протоколу iSCSI?
Решение:
Для работы с блочным устройством через протокол iSCSI необходимо выполнить следующие условия:
Терминология iSCSI
Установка и подключение сетевой карты
В ходе заказа услуги следует сообщить параметры сетевых адаптеров которые вы предполагаете выделить для работы с СХД. Или заказать установку дополнительных адаптеров.
После установки адаптеров и настройки сетевого оборудования сетевой инженер сообщит вам адреса которые вам нужно будет настроить на ваших адаптерах.
Проверка доступности
Наличие второго интерфейса позволит агрегировать (объединить) производительность обоих портов и обеспечит живучесть при обрыве связи по одному из каналов.
Для подключения к таргету вам следует убедиться, что сеть хранения доступна для вашего сервера.
Если у вас один сетевой порт, то вы должны видеть или первую или вторую пару адресов.
Проверьте доступность командой
Настройка Инициатора
Найдите в контрольной панели iSCSI Initiator
Control Panel>System and Security>Administrative Tools>iSCSI Initiator
Имя IQN текущего инициатора можно посмотреть на закладке:
Имя инициатора
Пример: iqn.2009-01.net.colobridge:ad321
Во избежание лишних недоразумений рекомендуем использовать имя сервера которое мы назначили вашему серверу, например, вы можете найти это имя в списке ваших услуг:
Портал > Панель клиента > Продукты/услуги > Dedicated Flex +, ad060.colobridge.net
Из всего этого используете ad060 и настраиваете на своем сервере имя инициатора iqn.2009-01.net.colobridge:ad060
При этом имя хоста в параметрах операционной системы может быть каким угодно.
И имя IQN может быть любым, просто нам удобнее вести учет выдачи ресурсов по нашим внутренним спискам.
Аутентификация
Вам потребуется настроить аутенификацию для discovery и аутенификацию для подключения.
Придумайте или сгенерируйте криптостойкий пароль 14-16 символов
Для создания учетной записи вашего сервера на системе хранения передайте следующую информацию:
После получения этой информации администратор системы хранения создаст учетную запись для вашего сервера с соответствующими вашему заказу LUN и параметрами отображения.
В панели iSCSI Initiator Properties перейдите на закладку Discovery, нажмите Discover Portal, укажите IP-адрес, нажмите Advanced, поставьте птицу на чекбоксе Enable CHAP log on. В качестве имени используйте имя инициатора, пароль 14-16 символов.
Повторите эти действия для каждого из адресов iSCSI портала.
После этих действий на закладке Targets должны отображаться 4 тергета в окне Discovered targets. Если у вас только одна карта, то там должен быть список из двух таргетов.
Последовательно укажите на каждый из таргетов и нажмите кнопку Connect. Затем Advanced, поставьте птицу на чекбоксе Enable CHAP log on. В качестве имени используйте то же самое имя инициатора и пароль 14-16 символов.
В менеджере дисков вы должны увидеть новый диск или диски с размерами соответствующими заказанным. Если этого нет, обновите список устройств через менеджер дисков или менеджер устройств.
Так как ваш сервер видит СХД по нескольким путям, то вместо одного диска вы будете видеть 4.
UltraPath
Разумеется, вы можете использовать стандартный multipath из вашей операционной системы. Однако Huawei UltraPath скорее всего окажется надежнее.
Скачайте и установите пакет UltraPath for Windows. Ссылку для скачивания последней версии пакета вам передаст служба технической поддержки. Или вы найдете ссылку под этой статьей.
Преимущества Huawei UltraPath
После установки перезагрузите сервер.
Убедитесь, что драйвер UltraPath установлен и работает:
Теперь нужно запустить консоль Ultra-Path, зайти в меню System > Global Settings и установить параметры как на этом снимке:
Зайдите в менеджер дисков, активируйте диск, создайте раздел с файловой системой.
В консоли Ultra-Path выберите все пути (1), запустите Performance Monitor (2), выберите тип измерений / measurement (3), запустите мониторинг (4), дайте нагрузку на диск и убедитесь что данные передаются по всем путям.
Тестирование производительности
Для теста производительности рекомендуем использовать утилиту diskspd
Для tier-2 и tier-3 это может длится довольно долго несмотря на то, что вы выбрали быстрое форматирование
Test-1
Это нагрузочный тест с имитацией работы OLTP позволяющий оценить нагрузочные характеристики диска.
Значение опций:
Test-2, Test-3
Эти тесты служат для оценки ширины канала связи с СХД
test-2: последовательное чтение блоками по 512K
test-3: последовательная запись блоками по 512K
Пример результатов тестирования
Тестирование производилось ночное время при небольших конкурирующих нагрузках и без лимитирования SmartQoS
Использовался один порт 10GbE Intel X520 (MTU=9000) на стороне хоста и два порта на стороне СХД с Huawei UltraPath-8.06.063.
В некоторых тестах вы можете заметить малую разницу между различными Tier. Этот эффект объясняется особенностями работы кэша и контроллера СХД. При значительных конкурирующих нагрузках этот эффект делится между клиентами в соответствии с уровнем приоритета tier.
Записки IT специалиста
Технический блог специалистов ООО»Интерфейс»
Настройка iSCSI-инициатора в Debian или Ubuntu
В продолжение темы iSCSI в среде Linux мы затронем тему инициатора, которого мы ранее не касались, рассказывая о подключении iSCSI-дисков исключительно к Windows-системам. Несомненно, это наше упущение, и мы постараемся его исправить. Перед тем как приступать к настройке инициатора мы советуем хотя бы по диагонали прочитать одну из наших статей по iSCSI или иную справочную информацию, чтобы иметь базовое представление о терминологии и назначении отдельных частей системы.
В качестве инициатора в Linux системах используется Open-iSCSI, установим его, перед установкой не забудем обновить список пакетов. Здесь и далее все команды выполняются от имени суперпользователя или через sudo.
Затем перейдем в /etc/iscsi и откроем файл iscsid.conf. Найдем и раскомментируем опцию:
Ниже обязательно закомментируем:
Затем зададим параметры аутентификации инициатора, раскомментировав опции:
Если предполагается работа только с одной целью, то можно сразу указать здесь используемые логин и пароль, можно же оставить как есть, указав нужные данные уже при настройке подключения к цели.
Сохраним файл и перезапустим службу:
Теперь попробуем подключиться к порталу и получить список доступных целей:
Это короткая запись команды, полная будет выглядеть так:
Из чего становится понятно, что мы должны подключиться к порталу 192.168.111.153 в режиме обнаружения и получить него все доступные цели.
Прежде всего убедимся, что
Если же вам нужно, чтобы указанная цель не подключалась автоматически при загрузке, то измените automatic на manual.
И укажите там логин и пароль для подключения к вашей цели.
Теперь можно подключить цель, для этого можно использовать команду:
Которая подключит все цели, конфигурационные файлы которых находятся в каталоге nodes, если требуется подключить только отдельную цель, то укажите ее явно:
Для отключения выполните:
Данная команда отключит все цели, либо:
Для отключения только определенной.
Для проверки можем выполнить:
Которая покажет все подключенные блочные устройства, среди которых должен оказаться и предоставляемый целью диск, в нашем случае на скриншоте ниже виден 2 ГБ диск sdb. Также можно посмотреть все текущие подключения iSCSI:
Для удаления ненужных целей воспользуйтесь командой:
Которая удалит все связанные с указанным порталом (опция -p) цели.
Помогла статья? Поддержи автора и новые статьи будут выходить чаще:
Или подпишись на наш Телеграм-канал:
Превращаем старый сервер в iSCSI Target с помощью Enterprise Storage OS (ESOS)
«Вишенкой на торте» в описанной ситуации стало то, что в сервере, который используется в нашем случае в качестве iSCSI Target (из реализации Quadstor), очень скромная дисковая корзина – всего 4 слота SAS/SATA форм-фактора 3.5″, два из которых заняты под хостовую ОС Linux.
Общий план мероприятий будет выглядеть так:
Конфигурация серверов
В нашем примере будет рассмотрено построение простейшей конфигурации с использование iSCSI из двух серверов, один из которых выполняет роль цели iSCSI Target на базе ESOS v 1.3.5, а другой выполняет роль хоста-инициатора iSCSI Initiator на базе Windows Server 2012 R2. Для улучшения доступности и производительности между целью и хостом-инициатором будет организовано многопутевое подключение (multi-path). Для отделения трафика iSCSI от трафика управления серверами в каждый сервер установлен дополнительный двух-портовый сетевой адаптер.
1) Сервер под роль iSCSI Target ( KOM-AD01-ESOS01 )
Сервер модели IBM System x3200 4362 с дисковой корзиной на 4 диска LFF HDD SAS/SATA и дополнительно установленным сетевым адаптером HP NC380T PCI Express Dual Port Multifunction Gigabit Server Adapter (394795-B21). На этом сервере будет выполняться загружаемая с USB-накопителя система ESOS. Все 4 диска из дисковой корзины сервера будут использованы в ESOS для организации программного RAID-массива, который в свою очередь будет презентован на хост-инициатор.
2) Сервер под роль iSCSI Initiator ( KOM-AD01-VM01 )
Сервер модели HP ProLiant DL380 G5, выполняющий роль хоста виртуализации Hyper-V на базе ОС Windows Server 2012 R2 Standard. Помимо базовой комплектации в сервер дополнительно установлен сетевой адаптер HP NC380T PCI Express Dual Port Multifunction Gigabit Server Adapter (394795-B21). Подключаемый к данному серверу с сервера ESOS по протоколу iSCSI диск будет использоваться под задачи резервного копирования виртуальных машин Hyper-V.
Простейшая схема подключения сетевых интерфейсов серверов будет выглядеть следующим образом:
Конфигурация RAID-контроллера на сервере IBM
Безотносительно используемой в нашем случае модели сервера и RAID-контроллера, можно сказать, что использование дистрибутива ESOS, не требующего для своей работы выделенного диска, в любой дисковой конфигурации позволит использовать под полезный дисковый объём все ресурсы дисковой корзины. В некоторых ситуациях этот аргумент может иметь существенное значение.
В нашем примере в дисковую корзину установлено 4 одинаковых диска SATA 7200 1TB.
Для того, чтобы отвязать себя от весьма скромных возможностей аппаратного RAID-контроллера, которым оснащён наш сервер, и в дальнейшем воспользоваться возможностями построения программного RAID-массива на базе ESOS, нам потребуется, чтобы для ESOS каждый диск выглядел, как отдельное физическое устройство. Поэтому во встроенной утилите управления RAID-контроллером удаляем все имеющиеся логические RAID-диски, чтобы каждый диск был представлен как отдельное устройство.
Некоторые RAID-контроллеры, например HP Smart Array, не позволяют транслировать подключённые диски, как самостоятельные дисковые устройства. В таких случаях потребуется создать отдельный том RAID-0 для каждого отдельно взятого диска. В нашем случае всё проще, так как установленный в нашем сервере контроллер LSI Logic SAS1064ET довольно примитивен и показывает все диски, как отдельные устройства, если эти диски не включены в аппаратный RAID-массив.
Подготовка загрузочного USB-накопителя ESOS
В документации о подготовке USB-накопителя рассматриваются варианты для Linux, Windows и MacOS. Вариант c MacOS оставим для гламурных сектантов Apple. Вариант для Windows у меня не заработал (попытка предпринималась на Windows 10, задача подготовки накопителя завершалась мутной ошибкой и в итоге загрузка с накопителя не работала). Поэтому мы остановимся на варианте подготовки накопителя на платформе Linux.
Распаковываем загруженный с сайта ESOS архив во временный каталог и запускаем скрипт подготовки накопителя:
Перед форматированием накопителя нас переспросят о наших намерениях. Вводим yes
Всё содержимое накопителя будет удалено и на него будет записан загружаемый раздел. По окончании процесса, скрипт предложит нам либо нажать Enter для добавления утилит управления аппаратными RAID-контроллерами (поддерживаются инструменты, упомянутые в Supported Hardware ), либо завершить процедуру подготовки накопителя, нажав Ctrl+C. В нашем случае будет использоваться программный RAID-массив, поддержка которого уже заложена в ESOS, поэтому мы жмём Ctrl+C.
Первая загрузка ESOS и первичная настройка
Устанавливаем подготовленный ранее накопитель в USB порт нашего сервера IBM, а в настройках BIOS сервера включаем загрузку с этого накопителя.
Дожидаемся успешного окончания первой загрузки ESOS. Первая загрузка может занять 5-10 минут, так как в её ходе на накопителе выполняется ряд первичных служебных процедур. Последующие загрузки ESOS с этого же накопителя будут проходить значительно быстрей.
Описание процедур первичной настройки ESOS можно найти в документе Initial System Configuration
Учётные данные, используемые по умолчанию:
При входе в систему автоматически запускается специальная оболочка Text-based User Interface (TUI), максимально упрощающая работу с системой. В верхней области TUI имеется основное функциональное меню, которое позволяет выполнять все основные задачи по конфигурации сервера в качестве хранилища для сетей SAN.
Первоочередными задачами начальной настройки являются смена стандартного пароля пользователя root и настройка сети, для возможности удалённой работы с системой.
Переходим в пункты меню System > Change Password и задаём новый пароль для пользователя root.
Затем перейдём в System > Network Settings и выберем пункт настройки основных параметров сети General Network Settings
В открывшейся форме укажем имя хоста, имя DNS-домена, IP адрес шлюза по умолчанию и адреса DNS-серверов.
После изменения сетевых настроек, ESOS будет предлагать перезагрузку службы сети, для вступления внесённых изменения в силу. Пока мы не произвели всех минимальных настроек сети, можем отказаться от рестарта службы сети.
После сохранения сделанных изменений мы снова получим вопрос о перезагрузке сети. Теперь на этот вопрос ответим утвердительно.
Сеть будет перезапущена и, в случае успешного применения заданных настроек, у нас появится возможность удалённого подключения к ESOS по протоколу SSH.
В рамках этой заметки, мы пропускаем прочие настройки, имеющиеся в ESOS, такие как настройка времени, конфигурация отсылки почты, управление дополнительными пользователями и т.д. Вместо этого мы сосредоточимся лишь на тех моментах, которые имеют значение в контексте нашей задачи. Тем не менее, прежде чем подключаться к нашему серверу ESOS по протоколу SSH, мне хочется сделать маленькое косметическое отступление относительно цветовой схемы TUI.
Создание программного RAID-массива в ESOS
Завершив первичную базовую настройку ESOS, переходим к конфигурации дисковой системы сервера. Выполним создание программного RAID-массива (реализовано на базе Linux Software RAID/mdraid) из 4 имеющихся в нашем распоряжении дисков. Для этого перейдём в меню Software RAID > Add Array
В перечне доступных для включения в программный RAID блочных устройств отметим диски, из которых будем создавать RAID-массив.
Выбрав диски нажмём Enter. Откроется экран настройки RAID-массива. Присвоим массиву имя в традициях mdraid, например md0. Выберем уровень RAID (в нашем случае это RAID5) и размер блока. В нашем случае массив собирается под задачи резервного копирования больших файлов дисков виртуальных машин, поэтому размер блока мы выбрали самый большой.
После нажатия кнопки OK будет запущена процедура инициализации RAID-массива. Переходим в меню навигации в Software RAID > Linux MD Status и проверяем статус созданного RAID-массива.
Здесь мы можем дождаться полного завершения построения RAID-массива, либо можно продолжить настройку нашего сервера, так как фактически дисковая ёмкость массива нам уже доступна.
Конфигурация iSCSI Target
Чтобы созданную нами дисковую ёмкость RAID-массива можно было презентовать на хост виртуализации по сети по протоколу iSCSI, на сервере ESOS нужно создать iSCSI Target. Для этого а меню навигации перейдём в Targets > Add iSCSI Target. В форме создания цели укажем имя iSCSI Qualified Name (IQN).
После сохранения информация о цели iSCSI Target появится на главном экране ESOS, но данная цель будет находится в выключенном состоянии.
Чтобы активировать цель, перейдём в меню навигации в Targets > Enable/Disable Target, из списка целей выберем только что созданную нами цель и поменяем в её свойствах Disabled на Enabled.
Убедимся в том, что на главном экране TUI информация о состоянии цели изменилась.
Далее нам нужно описать дисковое устройство, которое будет транслироваться через созданную цель iSCSI Target. Для этого меню навигации перейдём в Devices > Add Device
После выбора режима откроется окно выбора возможных для этого режима блочных устройств. Выбираем наш RAID-массив.
Сохраняем настройки виртуального блочного устройства и переходим к описанию хостов, которым разрешено подключаться к созданной нами цели iSCSI Target. Но прежде чем описать хосты, необходимо создать группу хостов. Переходим в меню Hosts > Add Group
Выбираем ранее созданную нами цель iSCSI Target, к которой будет относится создаваемая группа хостов.
Итак, группа хостов создана и привязана к цели iSCSI Target. Теперь нам нужно описать каждый хост, который будет выступать в качестве iSCSI Initiator с назначением этого хоста на созданную группу хостов. В нашем случае такой хост будет всего один – наш хост виртуализации Hyper-V на базе ОС Windows Server 2012 R2.
Прежде чем добавить в ESOS хост-инициатор, выясним его имя Initiator Name на нашем хосте виртуализации. Найти (и при желании изменить) это имя можно в Панели управления Windows Server, вызвав апплет iSCSI Initiator и открыв вкладку Configuration
Возвращаемся в TUI ESOS и добавляем хост-инициатор в меню Hosts > Add Initiator
При этом нас спросят к какой цели SCST Target относится добавляемый хост. Выбираем единственную ранее созданную и включённую нами цель.
Затем выбираем созданную ранее группу хостов, к которой будет привязан добавляемый хост-инициатор.
И наконец вводим IQN хоста-инициатора, которое мы выяснили ранее, и жмём Enter
Итак, на данном этапе в ESOS мы уже имеем созданную цель SCST (в нашем случае iSCSI Target), имеем виртуальное блочное устройство SCST (транслируется программный RAID-массив), нами описана группа хостов и к этой группе привязан хост-инициатор (iSCSI Initiator). Теперь нам только остаётся примапить виртуальное блочное устройство SCST к группе хостов. Для этого переходим в меню навигации в Devices > Map to Host Group.
Выбираем виртуальное блочное устройство SCST.
Выбираем цель SCST.
Выбираем группу хостов, в которую был включен хост-инициатор.
Далее откроется форма настройки LUN-а, который будет транслироваться в сеть. Укажем номер LUN-а (по умолчанию первому транслируемому LUN-у присваивается номер 0 ) и сохраним настройки, нажав ОК.
Посмотреть итоговую конфигурацию трансляции виртуальных устройств SCST можем перейдя в меню Devices > LUN/Group Layout
Теперь определимся с отделением сетевого трафика iSCSI от трафика управления самим сервером ESOS. Сделаем так, чтобы полностью разделить эти виды трафика по разным сетевым интерфейсам.
Сначала настроим выделенный под iSCSI сетевой интерфейс на стороне сервера ESOS, перейдя в меню навигации в System > Network Settings и выбрав соответствующий сетевой адаптер.
При сохранении настроек на вопрос о перезагрузке сети ответим утвердительно (все сетевые соединения с ESOS будут временно потеряны).
По завершению процедуры перезагрузки сети мы получим сводную информацию о статусе применения новых настроек
Теперь переходим к настройке на стороне хоста-инициатора.
Конфигурация iSCSI Initiator
На стороне нашего хоста виртуализации на базе Windows Server, на который мы будем принимать по протоколу iSCSI дисковую ёмкость с сервера ESOS, настроим выделенный сетевой адаптер для использования в работе с протоколом iSCSI.
Отключим все, кроме того что может потребоваться нам на этом выделенном интерфейсе при работе с iSCSI. Например, оставим только поддержку протокола TCP/IPv4 и QoS.
На вкладке DNS отключим включённую по умолчанию опцию регистрации в DNS, а на вкладке WINS отключим поддержку LMHOST и NetBIOS over TCP/IP.
Вернёмся на основную вкладку свойств сетевого интерфейса и вызовем диалог настройки параметров сетевого адаптера по кнопке Configure.
В открывшейся форме на вкладке расширенных настроек Advanced найдём опцию поддержки больших пакетов Jumbo Packet и выберем максимально возможное значение (в нашем примере это 9014 ). На вкладке Power Management отключим возможность отключения системой данного сетевого адаптера в режимах энергосбережения – Allow the computer to turn off this device to save mode.
Закроем все окна с сохранением кнопкой ОК.
Теперь проверим доступность сервера ESOS через выделенный сетевой интерфейс. Сначала утилитой tracert, чтобы убедиться в том, что маршрутизация трафика идёт между серверами напрямую.
В случае если где-то, например на коммутаторе, к которому подключены серверы ESOS и наш хост-инициатор, не включена поддержка Jumbo Frame, мы можем получить сообщения » Packet needs to be fragmented but DF set. » В нашем случае проверка прошла успешно, поэтому можно переходить к процедуре подключения iSCSI диска.
Перейдём в Панель управления Windows Server, вызовем апплет iSCSI Initiator и открыв вкладку Discovery нажмём кнопку Discover Portal. В окне настроек обнаружения укажем IP адрес сервера ESOS из сети для трафика iSCSI и нажмём кнопку Advanced.
После этого перейдём на вкладку Targets, где в разделе Discovered targets должен появится ранее упомянутый IQN нашего сервера ESOS со статусом Inactive. То есть система его обнаружила, но он пока не подключен. Для того, чтобы произвести подключение к iSCSI Target воспользуемся кнопкой Connect.
Закроем с сохранением окна Advanced Settings и Connect to Target и удостоверимся в том, что статус подключения изменился на Connected
Заглянем на вкладку Favorite Targets и убедимся в том, что подключенная цель попала в список избранных.
Убедимся в том, что в консоли управления “Диспетчер устройств”/Device Manager (devmgmt.msc) в разделе Disk drives появился дополнительный SCSI-диск с именем, которое ранее мы определяли на сервере ESOS для виртуального блочного устройства SCST.
Следующим шагом нам нужно выполнить инициализацию подключенного по протоколу iSCSI диска. Для этого перейдём в консоль управления дисками Disk Management (diskmgmt.msc), выберем соответствующий диск и переведём его в состояние Online.
После того как диск успешно изменит свой статус, проведём инициализацию диска и отформатируем его “по вкусу”, например в файловую систему NTFS, задав любую понятную нам метку тома. С этого момента в графическом интерфейсе Windows данный диск станет нам доступен для стандартных файловых операций.
На данном этапе, если мы заглянем в консоль сервера ESOS, то увидим в нижней части TUI информацию о сессии подключения хоста-инициатора.
На этом основную настройку простейшей конфигурацией iSCSI можно считать законченной.
Простейшая проверка производительности
После подключения диска по iSCSI желательно провести хотя бы какие-то нехитрые замеры производительности, чтобы понимать то, что у нас получилось в конечном итоге и то, чего можно ожидать от такого диска.
Полагаться на цифры, которые при копировании больших файлов с локального диска сервера на iSCSI диск показывает нам проводник Windows особо не стоит, так как объективной информации мы там не увидим. Например, в моём случае при копировании нескольких больших ISO-файлов (с разным содержимым) скорость обозначилась в районе 150-160 MB/s, что отличается в большую строну от реальной допустимой скорости iSCSI-линка между двумя моими серверами в 1Gbit/s (
125MB/s). К тому же более или менее похожая на правду скорость отображается при копировании первого файла, а при копировании последующих файлов она несколько увеличивается (возможно включается в работу кеш файловой системы и прочие другие кеши разных уровней).
Здесь после ключевого слова disk в опции –drive указывается имя буквы диска, который мы желаем протестировать, а в опции –count указывается количество циклов тестирования.
Как я понял, данная утилита не позволяет проводить тестирование оперируя большими блоками данных (более 1MB), то есть она больше подходит для тестирования ситуаций с большим количеством мелких файлов. У нас же ситуация обратная – резервное копирование дисков виртуальных машин предполагают малое количество файлов существенного размера.
Используемые нами параметры означают:
-d60 : Время выполнения теста 60 секунд
-b1M : Оперировать блоками по 1MB
-s : Выполнять операции с последовательным доступом
-w100 : Выполнять полный тест на запись (тест на чтение не выполняется)
-t1 : Количество потоков работы с целью (с файлом T:\io.dat)
-c100G : Создавать файлы размером 100GB
В конце перечислены имена генерируемых для теста файлов.
Для сравнения проведём ещё раз тест с тем же набором условий, но увеличим его продолжительность до 5 минут
Здесь хорошо видно, что при длительной нагрузке показатели заметно проседают. Могу предположить, что связано это с тем что “бутылочное горлышко” в этом случае перемещается из области сетевой подсистемы в область медленных дисков, используемых у нас на стороне сервера ESOS.
Настройка Multipath
Итак, мы имеем подключенный по iSCSI диск и некие базовые показатели тестов производительности, от которых можем отталкиваться. Теперь попробуем улучшить эти показатели, добавив на сервер ESOS и хост-инициатор ещё по одному гигабитному сетевому адаптеру и объединив их работу с помощью механизма Multipath на стороне хоста-инициатора.
Сохраняем настройки сети в ESOS и переходим к настройке дополнительного сетевого адаптера на стороне хоста-инициатора, то есть нашего сервера на базе Windows Server с iSCSI Initiator.
Настраиваем по аналогии с первым второй iSCSI-интерфейс, задав ему IP 192.168.168.4/29
Отключим ранее настроенный интерфейс c адресом 192.168.168.3 (iSCSI диск при этом у нас отвалится) и убедимся в том, что дополнительно настроенные iSCSI-интерфейсы сервера ESOS и хоста-инициатора видят друг друга.
Так как ранее мы создали iSCSI подключение к цели без включённого признака multi-path, то теперь нам будет правильней деактивировать это подключение и создать его заново, но уже с включенным признаком multi-path.
Сначала удалим созданное ранее подключение из автозагрузки на вкладке Favorite Targets
Теперь перейдём на вкладку Targets и выполним отключение (инициализированный и подключенный в системе iSCSI диск при этом исчезнет из Windows)
Убедившись в том, что цель снова перешла в состояние Connected откроем её свойства, чтобы добавить второе подключение по дополнительному выделенному интерфейсу
На вкладке Targets зайдём по кнопке Properties в свойства подключенной цели, и воспользуемся кнопкой Add session, чтобы настроить второе подключение.
Кстати, здесь по кнопке MCS мы сможем убедится в том, что первая установленная сессия действительно использует заданный нами выделенный сетевой интерфейс.
Теперь в списке сессий должна появиться запись о второй сессии.
Также созданную дополнительную сессию мы увидим и на стороне сервер ESOS.
На стороне хоста-инициатора заглянем в оснастку “Диспетчер устройств”/Device Manager (devmgmt.msc) и убедимся в том, что в разделе Disk drives появился дополнительный SCSI-диск с тем же именем ( ESOS01-MD0 ).
То есть сейчас, на стороне Windows-сервера мы фактически видим один и тот же диск, как два отдельных устройства. Чтобы система смогла работать с этим диском, как с единым устройством, используя оба сетевых линка iSCSI до сервера ESOS, нам потребуется включить поддержку MPIO для iSCSI. Для этого переходим в Панель управления Windows, открываем апплет MPIO и на вкладке Discover Multi-Paths включаем опцию Add support for iSCSI devices. После этого нажимаем кнопку Add и утвердительно отвечаем на вопрос о перезагрузке сервера.
Более подробную информацию о маршрутах подключения можем увидеть в апплете панели управления iSCSI Initiator.
Здесь по кнопке MPIO мы увидим информацию об используемых подключениях.
На этом базовую настройку Multipath можно считать законченной.
Теперь для того, чтобы оценить изменения в скорости работы с iSCSI-диском, которые мы получили в результате организации второго линка и настройки Multipath проведем простой тест линейной записи больших файлов на диск по аналогии с тем, что делали ранее:
Судя по тому, что нам показывает Diskspd в данном случае, в среднем в каждый из файлов запись прошла со скоростью
225MB/s, что равно 1800Mb/s. То есть в итоге мы получаем скорость приближенную к суммарной пропускной способности двух организованных линков iSCSI.
Тот же тест, но более продолжительный по времени (5 минут):
Средняя величина в
48.5 MB/s, полученная при работе с каждым файлом, выглядит ощутимо лучше, чем полученные ранее 16 MB/s на одном линке iSCSI.
На основании этих нехитрых замеров мы можем понять, что благодаря организации Multipath-подключения мы не только увеличили его доступность, но и получили улучшенные показатели производительности. И это хорошо.
Горячая замена USB-накопителя ESOS
Учитывая то, что собирая бюджетное решение, описанное в рамках нашего примера, мы могли использовать дешёвые USB-накопители, в некоторых случаях может возникнуть потребность в замене этого накопителя (например при его выходе из строя). Учитывая то, что ESOS это Linux-система полностью адаптированная к работе в оперативной памяти, замена USB-накопителя является очень простой операцией, корректная обработка которой реализована разработчиком этой системы.
Фактически выполняется замена накопителя в несколько простых действий:
После этого желательно перезагрузить сервер и убедиться в том, что с нового USB-накопителя система запускается успешно. В процессе первой загрузки с заменённого USB-накопителя ESOS выполнит некоторые служебные процедуры и уже буквально через несколько минут сервер будет готов к работе, подгрузив ранее настроенную нами конфигурацию.
Заключение
В заключении хочу сказать, что в нашем примере, благодаря системе ESOS, нам удалось выжать максимум из дисковой корзины устаревшего во всех отношениях сервера и получить на хосте виртуализации вполне сносную по производительности дисковую ёмкость под задачу резервного копирования виртуальных машин. И мне остаётся только поблагодарить разработчика ESOS за проделанный труд и пожелать проекту дальнейшего успешного развития.