Green-sell.info

Новые технологии
0 просмотров
Рейтинг статьи
1 звезда2 звезды3 звезды4 звезды5 звезд
Загрузка...

Iscsi хранилище на linux

Iscsiadm Commands to Configure Iscsi Client on Linux

Free Open Isci tool is used as the iscsi initiator on the client. Once installed, you can use iscsiadm command to configure the lun on linux. Here I am trying to use EqualLogic Isci storage as the target and a Redhat Linux 5 as the client. First, you should create volumes on the storage group interface manager and then needs to maps those Luns to server. You need to mention either iscsi initiator name or IP address to map the Lun to the server(host). If you need any authentication you can use chap. Now you can move to Linux host for further iscsi configuration.

Check isci initiator installed or not

You need iscsi-initiator-utils-6.2.0.742-0.6.el5 or greater

# rpm -qa | grep -i iscsi
iscsi-initiator-utils-6.2.0.872-10.el5

Display interfaces details

Lets check interface ip details

# ifconfig -a | more
eth0 Link encap:Ethernet HWaddr 00:50:56:AB:00:E7
inet addr:172.28.*.* Bcast:172.28.12.255 Mask:255.255.255.0
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
RX packets:2503 errors:0 dropped:0 overruns:0 frame:0
TX packets:838 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:1000
RX bytes:196784 (192.1 KiB) TX bytes:98212 (95.9 KiB)

eth1 Link encap:Ethernet HWaddr 00:50:56:AB:00:E8
inet addr:172.28.*.* Bcast:172.28.40.255 Mask:255.255.255.0
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
RX packets:4237 errors:0 dropped:0 overruns:0 frame:0
TX packets:3807 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:1000
RX bytes:966177 (943.5 KiB) TX bytes:359247 (350.8 KiB)

eth2 Link encap:Ethernet HWaddr 00:50:56:AB:01:00
inet addr:172.28.*.* Bcast:172.28.40.255 Mask:255.255.255.0
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
RX packets:4387 errors:0 dropped:0 overruns:0 frame:0
TX packets:3960 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:1000
RX bytes:894415 (873.4 KiB) TX bytes:384013 (375.0 KiB)

lo Link encap:Local Loopback
inet addr:127.0.0.1 Mask:255.0.0.0
UP LOOPBACK RUNNING MTU:16436 Metric:1
RX packets:10 errors:0 dropped:0 overruns:0 frame:0
TX packets:10 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:0
RX bytes:660 (660.0 b) TX bytes:660 (660.0 b)

Creating the interface files for MPIO

Lets use iscsiadm command to create interface files for multipathing

# iscsiadm -m iface -I eth1 -o new
New interface eth1 added

# iscsiadm -m iface -I eth2 -o new
New interface eth2 added

Updating the interface name for each port

Run iscsiadm command to update interface name

# iscsiadm -m iface -I eth1 -o update -n iface.net_ifacename -v eth1
eth1 updated.

# iscsiadm -m iface -I eth2 -o update -n iface.net_ifacename -v eth2
eth2 updated.

# cat /var/lib/iscsi/ifaces/eth1
# BEGIN RECORD 2.0-872
iface.iscsi_ifacename = eth1
iface.net_ifacename = eth1
iface.transport_name = tcp
# END RECORD
# cat /var/lib/iscsi/ifaces/eth2
# BEGIN RECORD 2.0-872
iface.iscsi_ifacename = eth2
iface.net_ifacename = eth2
iface.transport_name = tcp
# END RECORD

Iscsi target Discovering

Detect lun using iscsiadm command

# iscsiadm -m discovery -t st -p 172.28.*.*:3260
172.28.*.*:3260,1 iqn.2001-05.com.equallogic:0-8a0906-a146b2a07-57858e634784f7b0-bobrhel
172.28.*.*:3260,1 iqn.2001-05.com.equallogic:0-8a0906-a146b2a07-57858e634784f7b0-bobrhel

Logging into target

You have option to login individually also.

# iscsiadm -m node -l
Logging in to [iface: eth2, target: iqn.2001-05.com.equallogic:0-8a0906-a146b2a07-57858e634784f7b0-bobrhel, portal: 172.28.*.*,3260] Logging in to [iface: default, target: iqn.2001-05.com.equallogic:0-8a0906-a146b2a07-57858e634784f7b0-bobrhel, portal: 172.28.*.*,3260] Logging in to [iface: eth1, target: iqn.2001-05.com.equallogic:0-8a0906-a146b2a07-57858e634784f7b0-bobrhel, portal: 172.28.*.*,3260] Login to [iface: eth2, target: iqn.2001-05.com.equallogic:0-8a0906-a146b2a07-57858e634784f7b0-bobrhel, portal: 172.28.*.*,3260] successful.
Login to [iface: default, target: iqn.2001-05.com.equallogic:0-8a0906-a146b2a07-57858e634784f7b0-bobrhel, portal: 172.28.*.*,3260] successful.
Login to [iface: eth1, target: iqn.2001-05.com.equallogic:0-8a0906-a146b2a07-57858e634784f7b0-bobrhel, portal: 172.28.*.*,3260] successful.

Display scsi attached device

Lets display detected lun devices

# cat /proc/scsi/scsi
Attached devices:
Host: scsi0 Channel: 00 Id: 00 Lun: 00
Vendor: VMware Model: Virtual disk Rev: 1.0
Type: Direct-Access ANSI SCSI revision: 02
Host: scsi7 Channel: 00 Id: 00 Lun: 00
Vendor: EQLOGIC Model: 100E-00 Rev: 5.2
Type: Direct-Access ANSI SCSI revision: 05
Host: scsi6 Channel: 00 Id: 00 Lun: 00
Vendor: EQLOGIC Model: 100E-00 Rev: 5.2
Type: Direct-Access ANSI SCSI revision: 05

Iscsi session details

Below command will display session details of isci

# iscsiadm -m session
tcp: [6] 172.28.*.*:3260,1 iqn.2001-05.com.equallogic:0-8a0906-a146b2a07-57858e634784f7b0-bobrhel
tcp: [7] 172.28.*.*:3260,1 iqn.2001-05.com.equallogic:0-8a0906-a146b2a07-57858e634784f7b0-bobrhel

Display Disk details

Below command will display linux disk details that are known to kernel.

Disk /dev/sda: 5368 MB, 5368709120 bytes
255 heads, 63 sectors/track, 652 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

Device Boot Start End Blocks Id System
/dev/sda1 * 1 574 4610623+ 83 Linux
/dev/sda2 575 652 626535 82 Linux swap / Solaris

Disk /dev/dm-0: 1085 MB, 1085276160 bytes
255 heads, 63 sectors/track, 131 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

Disk /dev/dm-0 doesn’t contain a valid partition table

Disk /dev/sde: 1085 MB, 1085276160 bytes
34 heads, 61 sectors/track, 1022 cylinders
Units = cylinders of 2074 * 512 = 1061888 bytes

Disk /dev/sde doesn’t contain a valid partition table

Disk /dev/sdf: 1085 MB, 1085276160 bytes
34 heads, 61 sectors/track, 1022 cylinders
Units = cylinders of 2074 * 512 = 1061888 bytes

Disk /dev/sdf doesn’t contain a valid partition table

Checking whether Equallogic Hit installed

I have already installed HIT Kit 1.0.0- #rpm –ivh equallogic-host-tools-1.0.0-1.el5.x86_64.rpm

# rpm -qa | grep -i equa
equallogic-host-tools-1.0.0-1.el5

Hit requires dkms 1.95 (Dynamic kernel module support) installed. ( I have already installed dkms — #rpm –ivh dkms-1.95.32-1.noarch.rpm )

# rpm -qa | grep -i dkms
dkms-1.95.32-1

Dkms module can be download from http://linux.dell.com/dkms/testing/permalink/

Restarting EHCMD service

If using dell multipath module

# /etc/init.d/ehcmd restart
Stopping ehcmd: [FAILED] Starting ehcmd: [ OK ]

Restarting Multipath deamon

You can set alias, uuid, device details, blacklist node in multhipath.conf file before restarting

# /etc/init.d/multipathd restart
Stopping multipathd daemon: [FAILED] Starting multipathd daemon: [ OK ]

Display multhipath details

# multipath -ll
Bob_rhel_lun () dm-0 EQLOGIC,100E-00
[size=1.0G][features=1 queue_if_no_path][hwhandler=0][rw] _ round-robin 0 [prio=2][enabled] _ 3:0:0:0 sdc 8:32 [active][ready] _ 1:0:0:0 sdd 8:48 [active][ready]

Device mapper target device status

# dmsetup ls —target=multipath
Bob_rhel_lun (253, 0)

Mounting the filesystem

I have already formatted the filesystem using mkfs command (mkfs.ext3 /dev/mapper/Bob_rhel_lun)

# mount /dev/mapper/Bob_rhel_lun /data

Display disk usage

# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/sda1 4.3G 2.7G 1.5G 66% /
tmpfs 502M 0 502M 0% /dev/shm
/dev/mapper/Bob_rhel_lun 1019M 34M 934M 4% /data

Читать еще:  Sql server linux установка

Persistence on reboot

Added mount point to fstab file

# cat /etc/fstab
LABEL=/ / ext3 defaults 1 1
tmpfs /dev/shm tmpfs defaults 0 0
devpts /dev/pts devpts gid=5,mode=620 0 0
sysfs /sys sysfs defaults 0 0
proc /proc proc defaults 0 0
LABEL=SWAP-sda2 swap swap defaults 0 0
/dev/mapper/Bob_rhel_lun /data ext3 defaults 0 0

Настройка iSCSI-хранилища в Ubuntu Server

Протокол iSCSI получил широкое распространение как простой и недорогой способ организации сетей хранения данных (SAN). В качестве серверной ОС в данном случае мы выбрали Ubuntu Server 16.04 LTS. В Linux-системах в качестве программной цели iSCSI используется iSCSI Enterprise Target (IET). Для работы с ним потребуется установить два пакета:

Установка потянет за собой довольно много зависимостей, это не удивительно, так как будут установлены все необходимые компоненты для сборки модуля. Сама сборка будет выполнена в процессе установки и может занять некоторое время. После установки следует включить автоматический запуск службы цели iSCSI, для этого откройте файл /etc/default/iscsitarget и приведите к следующему виду строку:

Теперь приступим к созданию целей. Прежде всего создадим папку для хранения виртуальных дисков и разместим в ней тестовый диск объемом в 20 ГБ:

Для создания файла диска мы воспользовались командой dd, опция bs указывает размер блока – 1 МБ, а опция count – количество этих блоков. Имя файла и расширение могут быть произвольными, в нашем случае это lun0.img. Для создания программной цели (таргета) откроем файл /etc/iet/ietd.conf и добавим в него следующие строки:

Первая строка задает собственно цель, точнее ее IQN, это полностью определенное имя цели, которое записывается в формате: iqn. . :

year-mo – год и месяц регистрации домена

reversed_domain_name – доменное имя, записанное в обратном порядке

unique_name – уникальное имя цели

IncomingUser определяет учетные данные (логин и пароль) для подключения к данной цели, если аутентификация не требуется можно оставить пустым. OutgoingUser – учетные данные для аутентификации на инициаторе в случае использования взаимной проверки подлинности, если не используется – также оставляется пустым. Обратите внимание, согласно стандарту, пароль должен содержать ровно 12 символов.

И наконец Lun описывает доступные для данной цели объекты (LUN), которых может быть несколько, нумерация LUN начинается с нуля. Path указывает путь к файлу виртуального диска, а Type указывает тип доступа. После запятой и перед Type пробел отсутствует.

Закончив настройку сохраняем файл конфигурации и запускаем службу.

Теперь можно подключиться к нашей цели. Как видим, настройка iSCSI-хранилища на базе Linux предельно проста и позволяет быстро и с минимальными затратами развернуть необходимую инфраструктуру.

Настройка NFS сервера и ISCSI тарджет для Storage Linux Ubuntu

Настройка NFS сервера и сервера ISCSI на Storage Linux Ubuntu. Задача настроить два сервера NFS и два сервера ISCSI для предоставления своего дискового пространства гипервизору Citrix Xen Server. Первый сервер имя nfs1, будет являться основным для работы, второй сервер nfs2 будет точным зеркалом первого и будет использоваться для резервного складирования данных с nfs1 и для подстраховки, если nfs1 первый сервер выйдет из строя его задачи подхватит nfs2.

Storage для хранения hdd и iso c пула XenServer

Виртуальные диски и iso образы хранятся на nfs1 и nfs2
nfs1 /citrix-vm1
— iscsi (файл-диски)
— iso (образы ОС)
— virtualhost (файл-диски; nfs)

nfs2 /citrix-vm2
— iscsi (файл-диски)
— iso (образы ОС)
— virtualhost (файл-диски; nfs)

Nfs настройки

пакеты для установки
apt-get install nfs-kernel-server nfs-common
работающие демоны
rpc.statd
rpc.lockd
rpc.nfsd (основной демон обслуживающий запросы клиентов nfs)
rpc.mountd
rpc.idmapd
Для nfs версии 4, дополнительно
rpc.gssd
rpc.svcgssd
Файлы конфигурации
/etc/exports — основной конфигурационный с информацией об экспортируемых каталогах
/var/lib/nfs/xtab — список каталогов, монтированных удаленными клиентами
/var/lib/nfs/etab — список каталогов, который может быть смонтирован удаленными системами
/var/lib/nfs/rmtab — список каталогов, которые не разэкспортированы в данный момент
Управление сервером
nfsstat — статистика RPC и NFS серверов
showmount (—all, —directories, —exports) — информация о смонтированных файловых системах
exportfs — управление экспортированными каталогами
exportfs (-v,-r,-u,-a,-o,-i,-f)
Проверка, монтирование клиентом
mount -t nfs host:/share /tmp/share (путь)

Iscsi настройки
Инициатор (initiator) — iSCSI-клиент
Таргет (target (тарджет)) — iSCSI-сервер; предоставляет доступ к своим устройствам по iSCSI
Установка
Тарджет
apt-get install iscsitarget
Инициатор
apt-get install open-iscsi
Настройка
Для создания нового диска iscsi, приготавливаем файл-hdd
Создаст файл размером 50Gb
dd if=/dev/zero of=/citrix-vm1/iscsi/disk1.hdd bs=1024k count=50000
Создаем тарджет
tgtadm —lld iscsi —op new —mode target —tid 1 -T iqn.2016-06.biznes.com:your.first.iscsi.target
Создаем Lun, если тарджет уже создан можно добавлять Lun к нему
Где disk1.hdd блок который мы будем отдавать нашим ВМ
tgtadm —lld iscsi —op new —mode logicalunit —tid 1 —lun 1 -b /citrix-vm1/iscsi/disk1.hdd
Предоставляем доступ ACL
tgtadm —lld iscsi —op bind —mode target —tid 1 -I 5.5.5.7
Смотрим то, что настроили
tgtadm —lld iscsi —op show —mode target
Вывод:
Target 1: iqn.2016-06.biznes.com:your.first.iscsi.target
System information:
Driver: iscsi
State: ready
I_T nexus information:
I_T nexus: 7
Initiator: iqn.2016-05.com.example:18201e7e alias: xenserver-2
Connection: 0
IP Address: 5.5.5.4
I_T nexus: 9
Initiator: iqn.2016-05.com.example:a683f0b7 alias: xenserver-1
Connection: 0
IP Address: 5.5.5.1
LUN information:
LUN: 0
Type: controller
SCSI ID: IET 00010000
SCSI SN: beaf10
Size: 0 MB, Block size: 1
Online: Yes
Removable media: No
Prevent removal: No
Readonly: No
SWP: No
Thin-provisioning: No
Backing store type: null
Backing store path: None
Backing store flags:
LUN: 1
Type: disk
SCSI ID: IET 00010001
SCSI SN: beaf11
Size: 5243 MB, Block size: 512
Online: Yes
Removable media: No
Prevent removal: No
Readonly: No
SWP: No
Thin-provisioning: No
Backing store type: rdwr
Backing store path: /citrix-vm1/iscsi/disk1.hdd
Backing store flags:
LUN: 2
Type: disk
SCSI ID: IET 00010002
SCSI SN: beaf12
Size: 356516 MB, Block size: 512
Online: Yes
Removable media: No
Prevent removal: No
Readonly: No
SWP: No
Thin-provisioning: No
Backing store type: rdwr
Backing store path: /citrix-vm1/iscsi/ssw-iscsi-1.hdd
Backing store flags:
Account information:
ACL information:
5.5.5.1
5.5.5.4
5.5.5.7
5.5.5.11
127.0.0.1

Читать еще:  Visual studio code linux

Сохраняем настройки
tgt-admin —dump > /etc/tgt/conf.d/first.conf
Обновляем конфигурацию
tgt-admin —update ALL

В случаем необходимости проверить доступность созданного Lun можно так:
iscsiadm —mode discovery —type sendtargets —portal 127.0.0.1

Создание надёжного iSCSI-хранилища на Linux, часть 2

Продолжаем

Продолжаем создание кластера, начатое первой части.
На этот раз я расскажу про настройку кластера.

В прошлый раз мы закончили на том, что началась синхронизация DRBD.
Если мы в качестве Primary сервера для обоих ресурсов выбрали один и тот же сервер, то после завершения синхронизации должны в /proc/drbd увидеть примерно такую картину:

Самое интересное поле тут ds:UpToDate/UpToDate, означающее что и локальная и удаленная копия актуальны.

После этого переведем ресурсы в secondary режим — дальше ими будет управлять кластер:

Pacemaker

Итак, менеджер кластера.

Если коротко, то это мозг всей системы, который управляет абстракциями, называемыми ресурсами.
Ресурсом кластера может быть, в принципе, что угодно: IP-адреса, файловые системы, DRBD-устройства, программы-службы и так далее. Довольно просто создать свой ресурс, что мне и пришлось сделать для управления iSCSI таргетами и LUN-ами, об этом далее.

Corosync

Pacemaker использует инфраструктуру Corosync для взаимодействия между узлами кластера, поэтому для начала нужно будет настроить её.

Corosync имеет достаточно широкий функционал и несколько режимов для поддержки связи между нодами (unicast, multicast, broadcast), имеет поддержку RRP (Redundant Ring Protocol), которая позволяет использовать несколько разных путей для общения между нодами кластера для минимизации риска получить Split-brain, то есть ситуации, когда связь между нодами полностью пропадает, и они обе считают что сосед умер. В результате обе ноды переходят в рабочий режим и начинается хаос 🙂

Поэтому мы будем использовать как репликационный, так и внешний интерфейсы для обеспечения связности кластера.

Приступим к настройке

Для начала нужно сгенерировать ключ авторизации:

Его нужно положить под именем /etc/corosync/authkey на оба сервера.

Далее создадим конфиг, он должен быть идентичен на обоих нодах:

Тут мы описываем два кольца для связи — внутреннее (через порты репликации) и внешнее (через коммутаторы), выбираем протокол udpu (UDP Unicast) и указываем IP-адреса нод в каждом кольце. У меня еще была идея соединить ноды нуль-модемным кабелем, поднять PPP-соединение и пустить через него третье кольцо, но здравый смысл вовремя подсказал что и так сойдёт.

Всё, можно запускать Pacemaker (он запустит Corosync предварительно).

Вся настройка Pacemaker происходит через утилиту crm, причем запускать её можно на любом сервере в кластере — он автоматически обновит конфигурацию на всех нодах после изменения.

Посмотрим текущий статус:

Если всё примерно так, то связь установлена и ноды друг друга видят.

Теперь нам понадобятся ресурсы для управления SCST.
Я в свое время нашел их где-то на просторах интернета, модифицировал под свои нужды и выложил на Github.

Оттуда нам понадобятся два файла:

  • SCSTLun — управляет созданием устройств
  • SCSTTarget — управляет созданием iSCSI таргетов

Это, по сути, обычные bash-скрипты, реализующие несложный API Pacemaker.
Положить их следует в /usr/lib/ocf/resource.d/heartbeat, чтобы менеджер кластера их увидел.

Далее запускаем crm и входим в режим настройки:

Открывается текстовый редактор (обычно — nano) и можно приступить к описанию ресурсов и их взаимодействия.

Приведу пример конфигурации:

Общие настройки кластера

Они находятся в самом низу. Из важных тут no-quorum-policy=«ignore» и expected-quorum-votes=«2» — у нас кластер из 2 серверов и кворума тут быть не может ну никак, поэтому игнорируем его.

Ресурсы

Обычно ресурс может иметь два состояния — включен или выключен, Started/Stopped.
Например, ocf:heartbeat:IPaddr2 поднимает на интерфейсах IP-адреса и снимает их, а также рассылает gratious arp для обновления arp-таблиц. Этому ресурсу мы указываем IP адрес, маску и интерфейс.

Еще есть специальные ресурсы, например DRBD (ocf:linbit:drbd), которые имеют режимы Master/Slave.
При переходе ноды в активный режим менеджер кластера будет переводить ресурс в режим мастер и наоборот. DRBD при этом будет переключаться из Secondary в Primary. Для него мы указываем имя ресурса и путь до конфига DRBD (наверное, его можно опустить, точно не помню).

Далее идут наши самописные ресурсы.
Для ocf:heartbeat:SCSTLun мы указываем IQN таргета, в который он будет добавлен, имя устройства, номер LUN-а (у таргета обязательно должен быть LUN 0, иначе у некоторых инициаторов сносит крышу), путь до экспортируемого устройства и обработчик (handler).

На обработчике нужно остановится подробнее — это способ, которым SCST будет работать с нашим устройством.

Из интересных это:

  • disk — по сути это просто прямой проброс SCSI команд от инициатора к SCSI устройству, самый простой режим, но работает только с реальными SCSI устройствами, нам не подходит, т.к. экспортируем DRBD-устройство
  • vdisk_blockio — открывает устройство как блочное, обходя page-cache операционной системы. Используется, если не нужно кэшировать ввод-вывод
  • vdisk_fileio — открывает устройство как файл, позволяя использовать page-cache операционной системы, самый производительный режим, его и выберем

У vdisk_fileio есть важный параметр, влияющий на скорость — nv_cache=1, он прописан жестко в SCSTLun.
Этот параметр говорит SCST игнорировать команды инициатора для сброса кэша на устройство. Потенциально, это может привести к потере данных в случае аварийного отключения хранилища т.к. инициатор будет думать, что данные на диске, а они еще в памяти. Так что используйте на свой страх и риск.

Далее идёт ресурс ocf:heartbeat:SCSTTarget, которому мы присваиваем IQN, portals — это список IP-адресов, через которые будет доступен этот таргет, tgtoptions — опции iSCSI, про них можно много где почитать.

Читать еще:  Is not defined что за ошибка

Директивы, ответственные за поведение кластера при запуске и остановке ресурсов:

  • group объединяет ресурсы в группу для работы с ними как с единым целым. Ресурсы в группе запускаются последовательно
  • location указывает на какой ноде мы по умолчанию хотим видеть этот ресурс
  • colocation задает какие ресурсы должны находиться вместе на одной ноде
  • order сообщает менеджеру кластера порядок запуска ресурсов

После настройки ресурсов выходим из редактора и применяем изменения:

После этого можно посмотреть текущую ситуацию:

Мы видим, что ресурсы в неактивном состоянии, DRBD в режиме Slave (Secondary).

Теперь можно попробовать их активировать:

Стартуя этот ресурс мы вызываем в том числе и запуск других ресурсов т.к. они указаны у нас как зависимые (colocation), причем запускаться они будут в строго определенном порядке (order): сначала DRBD устройства перейдут в режим Primary, затем поднимутся IP-адреса, создадутся LUN-ы и в конце уже создадутся iSCSI таргеты.

Если всё так, то можно себя поздравить — кластер запущен!
Каждая группа ресурсов запущена на своем сервере, как это указано в конфиге директивой location.

Для подтверждения можно посмотреть лог ядра — dmesg — туда DRBD и SCST выводят свою диагностику.

Конец второй части

В третьей, заключительной, части я покажу как настроить сервера ESXi на оптимальную работу с этим кластером.

iscsiadm: cannot make connection to 192.168.2.1: No route to host

установил iscsi на 192.168.2.1 с CentOS 8. ping есть.
добавил порт 3260/tcp в фаерволд.
С 192.168.2.2 ввожу команду:
iscsiadm -m discovery -t st -p 192.168.2.1
Результат: iscsiadm: cannot make connection to 192.168.2.1: No route to host
Отключал фаервол, очищал iptables — не помогло
. Где смотреть? Если надо ещё какие-то конфиги, скажите.

Не могу добавить iscsi target в LVM в proxmox .

Добрый день коллеги. Подскажите пожалуйста почему не получается добавить iscsi target в lvm в proxmox? Вот скриншот добавления iscsi target в proxmox (скриншот https://ibb.co/bs2bgQW), он успешно добавляется, вот скриншот попытки добавить iscsi target в proxmox (скриншот https://ibb.co/qn2KDjb). Как видно из скриншота поле «Base volume» в ниспадающем меню пустое и неактивное. Подскажите что делаю не так. Готов предоставить еще материалы. Спасибо.

Автомонтирование iSCSI

Приветствую. На NAS поднят iSCSI.

На локальном хосте (linux) инициатором используется open-iscsi.

Обнаружение — ОК, ручное подключение — ОК, диск (LUN) доступен, отформатирован и предсказуемо работает.

systemctl status open-iscsi.service — без ошибок, добавлен в автозапуск и реально автозапускается.

Но при перезагрузке хоста автомонтирования диска НЕ случается.

В /etc/iscsi/iscsid.conf определено:

Что еще и где надо поправить/посмотреть?

Скорость iSCSI в связке centos 7 + vmware

target — centos 7 , 4 порта в teamd с балансом L4

initiator — vmware ESXI 6.7.0 U3, 4 порта vmkernel с разными адресами.

Трафик раскладывается на 4 интерфейса, но скорость даже до гигабита не дотягивает.

Есть варианты исправить ситуацию, получив скорость больше гигабита?

Сockpit — отсутсвует виджет iSCSI в Centos 7.7

В Cockpit 195 нет виджета iSCSI. Как это устроено?

Ошибки при подключении Proxmox через FC свитч Brocade 200e

2е ноды Proxmox 6 1 сан нас Freenas 11.2 Везде стоят карты qlogic 2462/2432, в общем как по мануалу.. Но, если соеденить напрямую, т.е. оптическим кабелем 2 адаптера 2462 у ноды и фринаса — всё здорово, все работает без ошибок. Но, как только в схему добавляется свитч — в логах ошибки доступа и через некоторое время фринас вовсе отваливается от обоих нод.

promox и iSCSI

ЛОР помоги с iSCSI на proxmox 6

Через гуи хотел. С виду все тривиально, мне казалось. В Storage -> Add -> iSCSI (чекбокс Use LUN`s directly выключен) -> Add , далее не не покидая Storage еще раз Add -> LVM -> все выбираю а в строке Base volume при выборе пустой список.

Где найти описание атрибутов конфига targetcli-fb.

Гугл молчит! или обиделся.

Есть где подробное описание всех атрибутов из конфига targetcli-fb.

Интересует описание всего этого:

Настройка targetcli-fb. Права доступа и видимость.

Настраиваю ISCSI на основе targetcli-fb.

1 Можно ли в таблице ACLS вместо имени инициатора (iqn.1991-05.com.microsoft:pc1) указать его IP адрес?

2 Как сделать так, чтоб инициаторы (клиенты все на винде) видели только тот таргет, который им разрешён?

offsite backup + time machine

Товарищи, я подумываю вот над каким решением:

  • Есть production proxmox nodeA-nodeN работающих на local zfs.
  • Есть iscsi узел на zfs
  • Есть головы (CPU+RAM+proxmox) — пусть это будут node1-node5
  • На узле iscsi — поднять pve-zsync который будет собирать с nodeA-nodeN, виртуальные машины, с X снапшотов для каждой VM (по потребностям) — таким образом, получаем, offsite backup
  • реализация time machine: с узла iscsi, переименовываем снапшот (чтобы pve-zsync), не пытался его грохнуть и делаем клон переименованного снепшота для записи. Полученный снепшот с возможностью записи отдаем по iscsi и запускаем на node1-node5, в изолированной сети.

Таким образом получаем offsite (async) реплику, с возможностью включить любую продуктивную виртуальную машину на N времени назад.

Что не так в этой идее, если я готов мириться с тем что для vm такой backup, будет равен жесткому reboot?

Переход с iscsitarget на targetcli

Есть комп на Ubuntu 16.04 + iscsitarget. Комп выступает в роли iscsi цели.

Решил перейти на targetcli

Сейчас у меня есть образ диска, созданный командой:

Подробнее как и что делал тут: Не создается LUN на TGT

В итоге у меня в наличии файл-образ games0.img и куча клиентских файлов-снапшотов в /dev/mapper/games0.img.cow.ХХХХ

Смогу ли я добавить в targetcli файл-образ /storage1/games0.img и отдавать клиентам файлы-снапшоты из /dev/mapper/games0.img.cow.ХХХХ без потери данных в games0.img?

Зависает iscsitarget

Ubuntu 16.04 + iscsitarget, инициаторы — на винде.

Ссылка на основную публикацию
Adblock
detector