Ви можете дозволити DNS виконувати розпізнавання імен серверів у вашому кластері, або ви можете звільнити сервери від цього завдання, вставивши записи для кожного з них у ваші файли /etc/hosts. Це також забезпечить роботу навіть під час збою DNS.
node1 $ sudo gluster peer status
Number of Peers: 1
Hostname: node2.cluster.local
Uuid: c4ff108d-0682-43b2-bc0c-311a0417fae2
State: Peer in Cluster (Connected)
Other names:
192.168.10.11
node2 $ sudo gluster peer status
Number of Peers: 1
Hostname: node1.cluster.local
Uuid: 6375e3c2-4f25-42de-bbb6-ab6a859bf55f
State: Peer in Cluster (Connected)
Other names:
192.168.10.10
Тепер ми можемо створити том із 2 репліками:
$ sudo gluster volume create volume1 replica 2 node1.cluster.local:/data/glusterfs/volume1/brick0/ node2.cluster.local:/data/glusterfs/volume1/brick0/
Replica 2 volumes are prone to split-brain. Щоб уникнути цього, використовуйте Arbiter або Replica 3. Див.: https://docs.gluster.org/en/latest/Administrator-Guide/Split-brain-and-ways-to-deal-with-it/.
Do you still want to continue?
(y/n) y
volume create: volume1: success: please start the volume to access data
Примітка
Як говорить команда return, кластер із 2 вузлами — не найкраща ідея проти розщепленого мозку у світі. Але цього буде достатньо для нашої тестової платформи.
Тепер ми можемо запустити том для доступу до даних:
$ sudo gluster volume status
Status of volume: volume1
Gluster process TCP Port RDMA Port Online Pid
------------------------------------------------------------------------------
Brick node1.cluster.local:/data/glusterfs/v
olume1/brick0 49152 0 Y 1210
Brick node2.cluster.local:/data/glusterfs/v
olume1/brick0 49152 0 Y 1135
Self-heal Daemon on localhost N/A N/A Y 1227
Self-heal Daemon on node2.cluster.local N/A N/A Y 1152
Task Status of Volume volume1
------------------------------------------------------------------------------
There are no active volume tasks
$ sudo gluster volume info
Volume Name: volume1
Type: Replicate
Volume ID: f51ca783-e815-4474-b256-3444af2c40c4
Status: Started
Snapshot Count: 0
Number of Bricks: 1 x 2 = 2
Transport-type: tcp
Bricks:
Brick1: node1.cluster.local:/data/glusterfs/volume1/brick0
Brick2: node2.cluster.local:/data/glusterfs/volume1/brick0
Options Reconfigured:
cluster.granular-entry-heal: on
storage.fips-mode-rchecksum: on
transport.address-family: inet
nfs.disable: on
performance.client-io-threads: off
Статус повинен бути «Started».
Ми вже можемо трохи обмежити доступ до тому:
$ sudo gluster volume set volume1 auth.allow 192.168.10.*
Немає додаткових репозиторіїв для налаштування. Клієнт уже присутній у базовому репо.
Створіть файл і переконайтеся, що він присутній на всіх вузлах кластера:
На клієнті:
sudo touch /data/test
На обох серверах:
$ ll /data/glusterfs/volume1/brick0/
total 0
-rw-r--r--. 2 root root 0 Feb 3 19:21 test
Звучить добре! Але що станеться, якщо вузол 1 виходить з ладу? Саме він був вказаний при монтуванні віддаленого доступу.
Давайте зупинимо вузол один:
$ sudo shutdown -h now
Перевірте статус на node2:
$ sudo gluster peer status
Number of Peers: 1
Hostname: node1.cluster.local
Uuid: 6375e3c2-4f25-42de-bbb6-ab6a859bf55f
State: Peer in Cluster (Disconnected)
Other names:
192.168.10.10
[antoine@node2 ~]$ sudo gluster volume status
Status of volume: volume1
Gluster process TCP Port RDMA Port Online Pid
------------------------------------------------------------------------------
Brick node2.cluster.local:/data/glusterfs/v
olume1/brick0 49152 0 Y 1135
Self-heal Daemon on localhost N/A N/A Y 1152
Task Status of Volume volume1
------------------------------------------------------------------------------
There are no active volume tasks
Хоча поточних сховищ немає, використання архівних сховищ, які були в CentOS для GlusterFS, все одно працюватиме. Як було зазначено, GlusterFS досить легко встановити та підтримувати. Використання інструментів командного рядка є досить простим процесом. GlusterFS допоможе створити та підтримувати кластери високої доступності для зберігання та резервування даних. Ви можете знайти більше інформації про GlusterFS і використання інструменту на сторінках офіційної документації.