Intern Diskussion:Ora: Unterschied zwischen den Versionen
Zur Navigation springen
Zur Suche springen
Keine Bearbeitungszusammenfassung |
Neuer Abschnitt →Aktualisierung (von Ceph 14 auf) Ceph 15 |
||
| Zeile 39: | Zeile 39: | ||
: <code>ceph crash archive-all</code> | : <code>ceph crash archive-all</code> | ||
== Aktualisierung (von Ceph 14 auf) Ceph 15 == | |||
: <code>sed -i 's/nautilus/octopus/' /etc/apt/sources.list.d/ceph.list</code> | |||
: <code>ceph osd set noout</code> | |||
GUI: | |||
<pre> | |||
noout flag(s) set | |||
</pre> | |||
: <code>apt update && apt -y full-upgrade</code> | |||
: <code>systemctl restart ceph-mon.target</code> | |||
* Alle Monitore (''Monitors'') werden von gelb auf grün angezeigt. | |||
* Alle Manager (''Manager'') werden von gelb auf grün angezeigt. | |||
: <code>systemctl restart ceph-mgr.target</code> | |||
(Achtung! Bei der Durchfühung auf den einzelnen Nodes zum Neustarten der OSDs für Ceph ist darauf zu achten, dass die Gesundheit nach dem Neustarten der OSDs für Ceph vom vorherigen Node "zurück" sind.) | |||
: <code>systemctl restart ceph-osd.target</code> | |||
<pre> | |||
2 pools have too many placement groups | |||
</pre> | |||
<pre> | |||
Pool storage has 128 placement groups, should have 32 | |||
Pool cephfs_data has 128 placement groups, should have 32 | |||
</pre> | |||
F……k! | |||
Weitermachen?! Jo! | |||
: <code>ceph config set osd bluestore_fsck_quick_fix_on_mount false</code> | |||
: <code>ceph osd require-osd-release octopus</code> | |||
: <code></code> | |||
Version vom 9. August 2021, 22:01 Uhr
Erstellen von Containern
- Rechtsklick auf ein Node - Create CT
- General: hostname, passwort Festlegen, bei Turnkey "unpriviledged container" deaktivieren
- Template: CT-Template von einem Speicher laden, vermutlich CephFS
- Root Disk: Storage: storage (rbd), Disksize einstellen
- CPU, Memory einstellen wie man es braucht
- Network,DNS: Bridge: vmbr1, den Rest einstellen wie man es braucht
High Availability
Man kann Container und VMs zum HA hinzufügen, sodass diese einen Neustart/Ausfall von einem Node überleben.
Die virtuelle HDD (Root Disk) dieser muss dafür im RDB-Storage liegen. Root-Disks im lokalen ZFS-Speicher führen zu Problemen!
- Auf den Container/VM gehen, dann im Menü Options "start at boot" auf Yes stellen
- auf Datacenter (cluster) gehen, im Menü "HA" bei Ressources auf add:
- Bei VM: den Container/VM auswählen
- Bei Group: HA_cluster wählen
- hinzufügen
Fehler im Cluster von Ceph
Fehler von OSDs für Ceph
osd.4 spackt erneut
- (andauernde) Warnmeldung 1 daemons have recently crashed
- osd.4 crashed on host n3
ceph crash ls
ID ENTITY NEW 2021-04-12_13:05:29.248655Z_384845a2-f660-4c38-a9a8-3fde5eb66b25 osd.4 2021-07-09_14:28:03.207985Z_8519c6ab-d4e4-42b6-a5c0-16aaadbcea9e osd.4
ceph crash archive-all
Aktualisierung (von Ceph 14 auf) Ceph 15
sed -i 's/nautilus/octopus/' /etc/apt/sources.list.d/ceph.list
ceph osd set noout
GUI:
noout flag(s) set
apt update && apt -y full-upgrade
systemctl restart ceph-mon.target
- Alle Monitore (Monitors) werden von gelb auf grün angezeigt.
- Alle Manager (Manager) werden von gelb auf grün angezeigt.
systemctl restart ceph-mgr.target
(Achtung! Bei der Durchfühung auf den einzelnen Nodes zum Neustarten der OSDs für Ceph ist darauf zu achten, dass die Gesundheit nach dem Neustarten der OSDs für Ceph vom vorherigen Node "zurück" sind.)
systemctl restart ceph-osd.target
2 pools have too many placement groups
Pool storage has 128 placement groups, should have 32 Pool cephfs_data has 128 placement groups, should have 32
F……k!
Weitermachen?! Jo!
ceph config set osd bluestore_fsck_quick_fix_on_mount false
ceph osd require-osd-release octopus