• Hallo liebe Userinnen und User,

    nach bereits längeren Planungen und Vorbereitungen sind wir nun von vBulletin auf Xenforo umgestiegen. Die Umstellung musste leider aufgrund der Serverprobleme der letzten Tage notgedrungen vorverlegt werden. Das neue Forum ist soweit voll funktionsfähig, allerdings sind noch nicht alle der gewohnten Funktionen vorhanden. Nach Möglichkeit werden wir sie in den nächsten Wochen nachrüsten. Dafür sollte es nun einige der Probleme lösen, die wir in den letzten Tagen, Wochen und Monaten hatten. Auch der Server ist nun potenter als bei unserem alten Hoster, wodurch wir nun langfristig den Tank mit Bytes vollgetankt haben.

    Anfangs mag die neue Boardsoftware etwas ungewohnt sein, aber man findet sich recht schnell ein. Wir wissen, dass ihr alle Gewohnheitstiere seid, aber gebt dem neuen Board eine Chance.
    Sollte etwas der neuen oder auch gewohnten Funktionen unklar sein, könnt ihr den "Wo issn da der Button zu"-Thread im Feedback nutzen. Bugs meldet ihr bitte im Bugtracker, es wird sicher welche geben die uns noch nicht aufgefallen sind. Ich werde das dann versuchen, halbwegs im Startbeitrag übersichtlich zu halten, was an Arbeit noch aussteht.

    Neu ist, dass die Boardsoftware deutlich besser für Mobiltelefone und diverse Endgeräte geeignet ist und nun auch im mobilen Style alle Funktionen verfügbar sind. Am Desktop findet ihr oben rechts sowohl den Umschalter zwischen hellem und dunklem Style. Am Handy ist der Hell-/Dunkelschalter am Ende der Seite. Damit sollte zukünftig jeder sein Board so konfigurieren können, wie es ihm am liebsten ist.


    Die restlichen Funktionen sollten eigentlich soweit wie gewohnt funktionieren. Einfach mal ein wenig damit spielen oder bei Unklarheiten im Thread nachfragen. Viel Spaß im ngb 2.0.

RAID erstellen schlägt fehl

Metal_Warrior

Defender of Freedom
Teammitglied

Registriert
10 Aug. 2013
Beiträge
6.829
Ort
/dev/mapper/home
@alter_Bekannter:
Richtiges Wiki, aber falsche Sektion. Keine Panik, ich muss auch jedes Mal suchen, bis ich sie wieder habe:
https://raid.wiki.kernel.org/index.php/Detecting,_querying_and_testing#Force-fail_by_software

Effektiv gehst du nur die Schritte durch, die ein Force-fail by software so mit sich bringen, unabhängig davon, dass die Platte, die du da grade durch mdadm als faulty setzt bereits ausgefallen ist. Dann ersetzt du sie im richtigen Moment durch eine neue Platte und gibst den send-home-Befehl ein - das Rebuild startet, alles gut. Hab ich auch schon hinter mir, dauert bei 8 TB RAID5-5 knapp 3 Tage im Online-Modus, natürlich je nach Aktivität auf dem RAID.
 

alter_Bekannter

N.A.C.J.A.C.

Registriert
14 Juli 2013
Beiträge
4.823
Ort
Midgard
  • Thread Starter Thread Starter
  • #22
Das System bleibt also die ganze Zeit selbst während der RAID repariert wird nutzbar?
 

alter_Bekannter

N.A.C.J.A.C.

Registriert
14 Juli 2013
Beiträge
4.823
Ort
Midgard
  • Thread Starter Thread Starter
  • #24
Okay, wie übernehme ich den RAID in ein neu installieretes System? Kopieren der mdadm.conf hat nicht funktioniert.

Ich dachte der Schritt würde sich mehr oder weniger von alleine erledigen weil selbst das partitionierungstool vom installer den RAID erkannt hat...
 
Zuletzt bearbeitet:

Metal_Warrior

Defender of Freedom
Teammitglied

Registriert
10 Aug. 2013
Beiträge
6.829
Ort
/dev/mapper/home
@alter_Bekannter: Nope, weil die Anschlüsse ja nicht mehr passen. Keine Sorge, das RAID-Wiki hat auch dafür ne Lösung:
https://raid.wiki.kernel.org/index.php/RAID_setup#2._Assemble

Danach kann man mit nem Befehl die mdadm.conf neu erstellen, das steht unter "Saving your RAID configuration".

Achtung: KEIN Create verwenden - da nimmt MDADM nämlich an, dass die Platten leer sind und schreibt mal fröhlich nen neues RAID. Ganz schlecht für Daten...
 

alter_Bekannter

N.A.C.J.A.C.

Registriert
14 Juli 2013
Beiträge
4.823
Ort
Midgard
  • Thread Starter Thread Starter
  • #26
Ah, okay, danke, war simpel:
mdadm -A md0 (meldet übrigens zurück wie viele Platten es verwendet!)

Dann mounten, fertig.

Meine Config enthält ids, die haben sich scheinbar nicht geändert.

Da mir das richtige Filesystem und dessen inhalt angezeigt wird hat wohl alles geklappt, RAID5 ist schließlich auf den Einzelplatten nur Kauderwelsch.
 

alter_Bekannter

N.A.C.J.A.C.

Registriert
14 Juli 2013
Beiträge
4.823
Ort
Midgard
  • Thread Starter Thread Starter
  • #27
Kleines Update:
Dazu eine Geschichte was gestern Nacht passiert ist:

Im Traum erscheint mir die (Porno-)Fee und es ergibt sich folgende Konversation:
Fee: DU bist krank und hast ein Problem!
Ich: Krank? Ich fühl mich super, was los?
Fee: Dein NAS ist voll mit Pornos, du musst was unternehmen!
Ich: Kapiert, danke für die Mitteilung! Ich bestelle gleich neue Festplatten!
Fee: Das war nicht was ich dir...

...ich wache auf. Keine Ahnung was die mir noch sagen wollte, aber es hatte sicher mit folgendem zu tun:
md1 : active raid5 sdi1[4] sdh1[2] sdg1[1] sdf1[0]
23441682432 blocks super 1.2 level 5, 512k chunk, algorithm 2 [4/3] [UUU_]
[>....................] recovery = 0.5% (41830552/7813894144) finish=1857.4min speed=69737K/sec
bitmap: 0/59 pages [0KB], 65536KB chunk

Warum ist da kein 4. U? Beim anderen RAID sind da 4 Us.
Indiziert das irgendein Problem?

erstellt wurde es mit:
mdadm --create /dev/md1 --level=5 --raid-devices=4 /dev/sdf1 /dev/sdg1 /dev/sdh1 /dev/sdi1

Ich hab jetzt jedenfalls 4 neue 8 TB NAS Platten die gerade mit RAID bauen beschäftigt sind. Ich hhoffe das jhält dann wieder 4 Jahre.:D:beer:

Und leicht off-topic:
Warum ist eine Porno-Fee zu klein um Sex mit ihr zu haben? Das macht doch gar keinen Sinn oder?
 
Zuletzt bearbeitet:

Metal_Warrior

Defender of Freedom
Teammitglied

Registriert
10 Aug. 2013
Beiträge
6.829
Ort
/dev/mapper/home
Warum ist da kein 4. U? Beim anderen RAID sind da 4 Us.
Indiziert das irgendein Problem?

Die vierte Platte war zwischenzeitlich anscheinend mal weg oder du hast sie ausgetauscht - er ist grade im Rebuild, das wird in einigen Stunden fertig sein, dann hast du wieder vier.

Ein paar Sachen fallen mir auf:

RAID5 mit 4 Platten ist ineffizient. 3 oder 5 Platten sind sinniger, weil die Redundanz im ersten Fall eine einzelne XOR-Operation benötigt, im zweiten Fall drei, wovon zwei parallel und eine in Reihe geschaltet ist: 5=XOR(XOR(1+2)+XOR(3+4)). Die Geschwindigkeit ist damit langsamer als mit drei Platten (3=XOR(1+2)), und genauso schnell wie mit vier Platten (XOR(XOR(1+2)+3))), weil die inneren Operationen unabhängig voneinander und die äußere sowieso vom inneren Ergebnis abhängt.

Du hast ein neues RAID gebaut, statt das alte aufzurüsten? Hättest du nicht machen müssen. Du kannst einzelne Platten in den FAILED-Status setzen, abklemmen, durch neue Platten ersetzen und sie wieder dem RAID zuweisen. Hast du alle Platten dann durch die größeren ersetzt, gibst du ihm "mdadm /dev/md0 --grow --size=max" - er wird dann selbstständig die maximal verfügbare Größe ermitteln und das RAID vergrößern. Am Ende noch ein resize2fs (vorher, falls verschlüsselt, ein cryptsetup resize), dann bist du mit größerem RAID gesegnet. Gleiches gilt übrigens, wenn du zusätzliche Platten einbaust, auch das läuft letztlich genauso. mdadm ist wirklich failsafe, auch wenn immer wieder "BACKUP" geschrien wird. Nur shrinking mach ich nicht, das ist mir zu kritisch (und ich weiß auch nicht, ob mdadm das überhaupt kann - weil wer will das schon).
 

alter_Bekannter

N.A.C.J.A.C.

Registriert
14 Juli 2013
Beiträge
4.823
Ort
Midgard
  • Thread Starter Thread Starter
  • #29
Ist mir bekannt, aber das schien mir aufwändiger und viele Quellen raten zu dem was ich jetzt mache weil einfacher/sicherer:
Neuen RAID bauen und Inhalt übertragen.

Die Downtime ist in meinem Fall kein Problem.

Edit:
Mal getetstet wo ich jetzt noch nix kaputtmachen konnte:
-create hat jetzt eine Sicherheitsabfrage wenn ein bestehender RAID erkannt wird.

Edit2:
Nach einer Unterbrechung bekomme ich ihn nicht zum fortsetzen.

Neu partitionieren?

mdadm --assemble --run --force --update=resync /dev/md1 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1
mdadm: Marking array /dev/md1 as 'clean'
mdadm: /dev/md1 has been started with 3 drives (out of 4) and 1 rebuilding.

watch -n1 cat /proc/mdstat
md1 : active (auto-read-only) raid5 sdb1[0] sde1[4] sdd1[2] sdc1[1]
23441682432 blocks super 1.2 level 5, 512k chunk, algorithm 2 [4/3] [UUU_]
bitmap: 0/59 pages [0KB], 65536KB chunk

unused devices: <none>

cat /sys/block/md1/md/sync_action
idle

Da ich das auch nicht sauber beendet hatt habe ich es jetzt ewinfach komplett neugestartet.
Es wäre aber für die Zukunft interessant wie man es sauber pausiert. Die Sachen die ich gefunden habe, haben alle nicht funktioniert. Oder braucht das einfach sehr lange? Ich habe nicht viel länger als 30 Sekunden gewartet.

Es isht nämlich so aus als müsste ich unter umständen nochmal wegen Überhitzung pausieren.

https://serverfault.com/questions/216508/how-to-interrupt-software-raid-resync
Keinerlei erkennbaren Effekt, nichts davon...

Am vielversprechenste sah checkarray aus, das hat wenigstens zurückgemeldet das ein cancel eingereiht wurde oder irgendwas in der Richtung, passiert ist aber nichts.
 
Zuletzt bearbeitet:

Metal_Warrior

Defender of Freedom
Teammitglied

Registriert
10 Aug. 2013
Beiträge
6.829
Ort
/dev/mapper/home
@alter_Bekannter: Da gibts kein Sicherheitsproblem, und ja, ist zwar einfacher, aber gerade bei Cryptodevices musst du nen vollständigen Overwrite machen, das geht IMHO einfacher, wenn man das RAID einfach nur growed und vorher eine einzelne Platte mit Random-Daten vollschreibt. Und nachdem ich Downtimes hasse... ;)

Ach, du assemblest aber komplex. Normalerweise sollte mdadm -a alles automatisch erkennen und zusammensetzen. Zumal du ihm trotz dass es mitten im Resync war gesagt hast, dass es clean ist (was soweit ich mich erinnern kann KEINE gute Idee ist, weil er dann von vorn anfängt, und das die Platten unnötig stresst). Das auto-read-only bekommst du mit mdadm /dev/md0 --readwrite weg. Pausieren kannst du, indem du es stoppst (mdadm /dev/md0 --stop), das sollte auch während dem Resync kein Problem geben, weil der Superblock ja korrekt geschrieben wird.

Wenn deine Platten zu heiß werden, würde ich mir ne bessere Kühlung holen. Denn das kann dir im Betrieb dann auch passieren, vor Allem im Sommer.
 

alter_Bekannter

N.A.C.J.A.C.

Registriert
14 Juli 2013
Beiträge
4.823
Ort
Midgard
  • Thread Starter Thread Starter
  • #31
War wohl falscher Alarm, im Wechselrahmen sind sie zwar sehr heiss geworden, aber deswegen ja die erste Unterbrechung. Der HP Microserver scheint die Kühlung erheblich besser zu stemmen.

Läuft seit fast einer Stunde und ich bin immer noch unter 40 Grad Celsius. Scheint nicht mehr zu steigen(keine Änderung seit ~10 Minuten). 40 Grad sind bei max temp 60 wohl aboslut unbedenklich.

Also nochmal ein plus für den Microserver.:T
Wenns morgen durch ist mach ich wieder einen Speedtest.

Edit:
auch nach weiteren 30 Minuten keine Erhöhung der Temperatur, die Kühlung scheint zu reichen.
 
Zuletzt bearbeitet:

alter_Bekannter

N.A.C.J.A.C.

Registriert
14 Juli 2013
Beiträge
4.823
Ort
Midgard
  • Thread Starter Thread Starter
  • #32
RAID lässt sich nicht mehr zussammenbauen. Keine Fehler erkennbar. Config dda, alle Platten da.

"Assemble" und "scan" geben nichts zurück.

Disk /dev/sdb: 7,3 TiB, 8001563222016 bytes, 15628053168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 58071F56-D366-4740-AD2A-3FFE3E53893A

Device Start End Sectors Size Type
/dev/sdb1 2048 15628053134 15628051087 7,3T Linux RAID

Disk /dev/sdc: 7,3 TiB, 8001563222016 bytes, 15628053168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: BBC3BAD0-C40B-4D0E-91A7-7EB35F6FD178

Device Start End Sectors Size Type
/dev/sdc1 2048 15628053134 15628051087 7,3T Linux RAID

Disk /dev/sdd: 7,3 TiB, 8001563222016 bytes, 15628053168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: D39F59DB-638E-44D0-A532-C2C2EE5F40B2

Device Start End Sectors Size Type
/dev/sdd1 2048 15628053134 15628051087 7,3T Linux RAID

Disk /dev/sde: 7,3 TiB, 8001563222016 bytes, 15628053168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: E86CF359-4DB2-4974-8959-2AC7A52E1492

Device Start End Sectors Size Type
/dev/sde1 2048 15628053134 15628051087 7,3T Linux RAID

cat /etc/mdadm.conf
ARRAY /dev/md0 metadata=1.2 name=NAS:0 UUID=6443457c:7f4b83fa:585714d9:6c0e08b3
mount /dev/md0 /media/RAID5/
mount: special device /dev/md0 does not exist

Edit:
Das manuelle angeben der devices hat funktioniert. Aber was lief da schief?
 
Zuletzt bearbeitet:
Oben