Intern:Cluster/xora: Unterschied zwischen den Versionen
Zur Navigation springen
Zur Suche springen
| Zeile 472: | Zeile 472: | ||
Im Übrigen kann überlegt werden, dass darüber hinaus auch eine Sicherung von /dev/sd{a,b}1 vorgenommen wird. | Im Übrigen kann überlegt werden, dass darüber hinaus auch eine Sicherung von /dev/sd{a,b}1 vorgenommen wird. | ||
=== Erstellung vom Cluster === | |||
(auf [[#8]] (nora)) | |||
* Datacenter -> Cluster -> Create Cluster | |||
*: Create Cluster | |||
*:; Cluster Name: ''xora'' | |||
*:; Ring 0 Address: | |||
<pre> | |||
Corosync Cluster Engine Authentication key generator. | |||
Gathering 1024 bits for key from /dev/urandom. | |||
Writing corosync key to /etc/corosync/authkey. | |||
Writing corosync config to /etc/pve/corosync.conf | |||
Restart corosync and cluster filesystem | |||
TASK OK | |||
</pre> | |||
== Siehe auch == | == Siehe auch == | ||
Version vom 2. Oktober 2018, 03:42 Uhr
Cluster/xora soll ein Verbund (Cluster) von Servern mit Proxmox VE sein. Es handelt sich vorerst um einen Test. Wenn der Test zufriedenstellend verläuft, soll damit dann der gesamte Betrieb zu Servern damit realisiert werden.
Test
Grundsätzlich soll ein möglichst ausfallsicherer Verbund an Servern mit Proxmox VE getestet werden.
Getestet werden soll:
- Datensicherung
- Replikation
- …
- Ausfallüberbrückung
- …
Bezeichnung
Es ist die künstlich geschaffene Bezeichnung für den Verbund von mehreren Servern.
Verbund
Für einen Verbund an Servern mit Proxmox VE bedarf es wohl mindestens 3 Servern.
Zu dem Verbund gehören (theoretisch)
- mindestens
- zur Vervollständigung auch
- zur Ergänzung eventuell auch
- zora (zuvor srs5100)
.
Geräte
einzelne Geräte
| Gerät | Name | IPv4 OS | DNS (A) OS | WUI OS | Mail OS | Geburtshilfe | Start (Dauer) | IPv4 IPMI | DNS (A) IPMI | WUI IPMI | Mail IPMI | Netzwerkschnittstellen | Massenspeicher | Eigentum | |||||||||||||||
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
27090 |
cora | 141.56.51.123 | cora.stura-dresden.de | https://cora.stura-dresden.de:8006/ | cora@stura.htw-dresden.de | James | 3 min | 141.56.51.113 | irmc.cora.stura-dresden.de | https://irmc.cora.stura-dresden.de/ |
|
|
bsd.services:user:vater:hw#rx300_s6_2709_0 | ||||||||||||||||
27091 |
dora | 141.56.51.124 | dora.stura-dresden.de | https://dora.stura-dresden.de:8006/ | dora@stura.htw-dresden.de | Fullforce | 3 min | 141.56.51.114 | irmc.dora.stura-dresden.de | https://irmc.dora.stura-dresden.de/ |
|
|
bsd.services:user:vater:hw#rx300_s6_2709_1 | ||||||||||||||||
8529 |
141.56.51.127 | lora.stura-dresden.de | lora@stura.htw-dresden.de | min | 141.56.51.117 | irmc.lora.stura-dresden.de | https://irmc.lora.stura-dresden.de/ |
|
|
bsd.services:user:vater:hw#rx300_s6_8529 | |||||||||||||||||||
8 |
nora | 141.56.51.128 | nora.stura-dresden.de | https://nora.stura-dresden.de:8006/ | nora@stura.htw-dresden.de | 2 min | 141.56.51.118 | irmc.nora.stura-dresden.de | https://irmc.nora.stura-dresden.de/ |
|
|
StuRa (srs3008) | |||||||||||||||||
5100 |
141.56.51.129 | zora.stura-dresden.de | zora@stura.htw-dresden.de | min | 141.56.51.119 | drac.cora.stura-dresden.de | https://drac.cora.stura-dresden.de/ |
|
|
bsd.services:user:vater:hw#dell_poweredge_r510 |
BIOS
F2
- Boot
alles andere- USB KEY: …
- PCI SCSI: #0100 ID000 LN0 HGST H
- PCI SCSI: #0100 ID004 LN0 HGST H
Installation Betriebssystem
Install Proxmox VE
Loading Proxmox Installer ... Loading initial ramdisk ...
Proxmox startup
- End User License Agreement (EULA)
- I agree
- Proxmox Virtualiszation Environment (PVE)
-
- Options
-
- Filesystem
ext4zfs (RAID1)- Disk Setup
-
- Harddisk 0
- /dev/sda (1863GB, HUS726020ALS214)
- Harddisk 1
- /dev/sdb (1863GB, HUS726020ALS214)
- Harddisk 2
-- do not use --
- Advanced Options
-
- ashift
- 12
- compress
- on
- checksum
- on
- copies
- 1
- OK
- Target
- zfs (RAID1)
- Next
- Location and Time Zone selection
-
- Country
- Germany
- Time zone
- Europe/Berlin
- Keyboard Layout
- German
- Next
- Administration Password and E-Mail Address
-
- Password
- 8
- Confirm
- 8
- siehe #einzelne Geräte
- Next
- Management Network Configuration
-
- Management Interface
- enp8s0f0 - … (igb)
- Hostname (FQDN)
- siehe #einzelne Geräte
- IP Address
- siehe #einzelne Geräte
- Netmask
- 255.255.255.0
- Gateway
- 141.56.51.254
- DNS Server
- 141.56.1.1
- Next
- …
- Installation successful!
- Reboot
nach der Installation
- erste Aktualisierung
- Update (WUI)
- Refresh (WUI)
- Neustart (WUI)
- Upgrade (WUI)
- Refresh (WUI)
- (optionales) ZFS anschauen
zpool status
pool: rpool state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM rpool ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 sda2 ONLINE 0 0 0 sdb2 ONLINE 0 0 0 errors: No known data errors
zfs list
NAME USED AVAIL REFER MOUNTPOINT rpool 9.40G 1.75T 104K /rpool rpool/ROOT 919M 1.75T 96K /rpool/ROOT rpool/ROOT/pve-1 919M 1.75T 919M / rpool/data 96K 1.75T 96K /rpool/data rpool/swap 8.50G 1.75T 56K -
- (optionales) Anschauen der Partitionierung
fdisk -l /dev/sd{a,b}
Disk /dev/sda: 1.8 TiB, 2000398934016 bytes, 3907029168 sectors Units: sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disklabel type: gpt Disk identifier: 0A3CA01C-D0CE-4750-A26A-C07C1541EF1D Device Start End Sectors Size Type /dev/sda1 34 2047 2014 1007K BIOS boot /dev/sda2 2048 3907012749 3907010702 1.8T Solaris /usr & Apple ZFS /dev/sda9 3907012750 3907029134 16385 8M Solaris reserved 1 Disk /dev/sdb: 1.8 TiB, 2000398934016 bytes, 3907029168 sectors Units: sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disklabel type: gpt Disk identifier: C0D3B0CA-C966-4B00-B367-EEDBD04872F7 Device Start End Sectors Size Type /dev/sdb1 34 2047 2014 1007K BIOS boot /dev/sdb2 2048 3907012749 3907010702 1.8T Solaris /usr & Apple ZFS /dev/sdb9 3907012750 3907029134 16385 8M Solaris reserved 1
- Sicherung des initialen Zustandes von PVE (mit der erfolgten Aktualisierung)
Erstellen eines Schnappschusses vom gesamten Pool
zfs snapshot -r rpool@fresh-installed-pve-and-updated
Im Übrigen kann überlegt werden, dass darüber hinaus auch eine Sicherung von /dev/sd{a,b}1 vorgenommen wird.
Erstellung vom Cluster
(auf #8 (nora))
- Datacenter -> Cluster -> Create Cluster
- Create Cluster
- Cluster Name
- xora
- Ring 0 Address
- Create Cluster
Corosync Cluster Engine Authentication key generator. Gathering 1024 bits for key from /dev/urandom. Writing corosync key to /etc/corosync/authkey. Writing corosync config to /etc/pve/corosync.conf Restart corosync and cluster filesystem TASK OK