Neues in der Kategorie ubuntu

Bisher führte ich die Backups immer manuell aus: Platten gemounted, Grsync gestartet und beim voreingestellten Profil auf Ausführen gedrückt. Von einer gewissen Regelmäßigkeit war da nicht zu sprechen.

Es wäre möglich, das in Linux eingebaute cron zu nutzen. Für einen Desktop-Rechner ist der Cron-Job jedoch auch keine Alternative. Zur eingestellten Update-Zeit ist der Rechner möglicherweise nur an 1 von 7 Tagen wirklich eingeschaltet.

Hier kommt anacron ins Spiel. Mit anacron ist es möglich, mit einer gewissen Verzögerung nach dem Programmaufruf eine Aktion auszuführen. Den Programmaufruf von anacron wollte ich idealerweise nach dem Einloggen auslösen, sodass das Backup nach ca. 5 Minuten startet. Das Backupscript selbst wird dann von anacron aufgerufen.

Nachfolgend werden die beiden Stufen "Programmaufruf über anacron" und "Backupscript" beschrieben.

Sollte man jedoch wünschen, dass die externe Platte das Backup selbst ausführt, macht sich autorun ganz gut. Beim Einstecken des USB-Devices kann das Backup ausgelöst werden.

Umgekehrt ist es auch ganz praktisch, das Backup eines USB-Sticks auf eine lokale Platte zu starten

Die sehr praktische Backup-Funktion über autorun erläutere ich im dritten Abschnitt.


Terminaleingaben wie folgt: (# = Kommentare, $ = Terminal-Eingabezeilen, alles andere = Terminal-Ausgaben)


1.) Programmaufruf über anacron


### anacron installieren (falls noch nicht vorhanden)
$ sudo apt-get install anacron
### anacron für user "test" konfigurieren (s. auch INFO)
$ sudo groupadd anacron
$ sudo adduser test anacron
$ sudo chown root.anacron /var/spool/anacron
$ sudo chmod g+w /var/spool/anacron
### info-files anlegen (spool)
$ touch /var/spool/anacron/test.anacron.daily
$ touch /var/spool/anacron/test.anacron.weekly
$ touch /var/spool/anacron/test.anacron.monthly
### Rechte vergeben
$ chown root.anacron /var/spool/anacron/test.*
$ sudo chmod g+w /var/spool/anacron/test.*
$ sudo chmod g+r /var/spool/anacron/test.*
### INFO das Spool-Verzeichnis/Dateien des Users kann auch ins $Home verlegt werden
### hierzu muss der anacron-Start (s. unten) wie folgt erfolgen:
### /usr/sbin/anacron -s -S $HOME/.etc/anacron_spool/ -t $HOME/.etc/anacrontab
### Das selbst gewählte Verzeichnis bitte vorher anlegen!
### Für diesen Fall sind nur die nachfolgenden Arbeitsschritte notwendig:
### ---------------------------------------------------------------------------------------------------
### test's anacron im Home-Verzeichnis verankern (Verzeichnis ~/.etc nur beispielhaft benutze ich aber so)
$ mkdir $HOME/.etc/anacron.daily
$ mkdir $HOME/.etc/anacron.weekly
$ mkdir $HOME/.etc/anacron.monthly
### anacrontab anlegen
$ touch $HOME/.etc/anacrontab
### anacrontab bearbeiten: mit mcedit ,auch gedit etc. möglich
$ mcedit $HOME/.etc/anacrontab
________________ INHALT  $HOME/.etc/anacrontab______________
# See anacron(8) and anacrontab(5) for details.

SHELL=/bin/sh
PATH=/sbin:/bin:/usr/sbin:/usr/bin

# period  delay  job-identifier  command
# 5 min daily, 10 min weekly, 15 min monthly
1       5       test.anacron.daily    nice run-parts --report $HOME/.etc/anacron.daily
7      10       test.anacron.weekly   nice run-parts --report $HOME/.etc/anacron.weekly
30     15       test.anacron.monthly  nice run-parts --report $HOME/.etc/anacron.monthly
_______________ENDE INHALT $HOME/.etc/anacrontab ___________


Script-Dateien, die man in den .daily/.weekly/.monthly-Verzeichnissen ablegt werden nach dem Start von anacron jeweils täglich/wöchentlich/monatlich gestartet.

Erst nach dem eigentlichen Start von anacron wird das Backup gestartet.

  • Der Start kann über eine crontab-Eintrag stattfinden:
### crontab editieren
$ crontab -e
_______________ eintragen ______________________
@reboot    /usr/sbin/anacron -t $HOME/.etc/anacrontab
______________________________________________

  • ODER: anacron nach Login über "Startprogramme" starten
Bildschirmfoto-Startprogrammeinstellungen.png

Der Eintrag wird über "hinzufügen" erstellt:
Bildschirmfoto-Startprogramm bearbeiten.png

Der folgende Eintrag startet anacron des Users "test" nach dem Login:

/usr/sbin/anacron -t /home/test/.etc/anacrontab


2.) Backupscript

Welche Dateien lege ich jetzt in meine anacron.daily/.weekly/.monthly-Verzeichnisse?

Ein Problem ist manchmal schon, die Platte ohne admin-Rechte (root) zu mounten (einhängen). Das folgende Beispiel hängt die Platte mit dem Label "raidstor" ein und sichert das Home-Verzeichnis des users "test" komplett in das Unterverzeichnis BACKUP/home der Platte. (Der Username test muss natürlich ersetzt werden)

HINWEIS: Ich habe das nur mit Linux-Dateisystemen benutzt (ext2/ext3/ext4). Für NTFS-Platten könnten zusätzliche Optionen für rsync notwendig werden.

Benötigte Pakete: libnotify-bin gvfs-bin
# Pakete installieren
$ sudo apt-get install libnotify-bin gvfs-bin

______________ file: $HOME/.etc/anacron.daily/localbackup_______________
#!/bin/sh

startmessage='Es wird eine Sicherung auf raidstor durchgeführt.'
midmessage='Der Computer darf während dieses Vorgangs nicht heruntergefahren werden!'
finishmessage='Die Sicherung ist abgeschlossen!'

notify-send -u normal -t 3 -i /usr/share/icons/grsync.png "$startmessage"
#MOUNTEN
gvfs-mount -d `readlink -f /dev/disk/by-label/raidstor`
sleep 2
notify-send -u normal -t 3 -i /usr/share/icons/gnome/scalable/status/dialog-warning.svg "$midmessage"
##BACKUP ausführen
rsync -ax --delete --delete-excluded --exclude=.gksu.lock --exclude=.thumbnails /home/test /media/raidstor/BACKUP/home
##BACKUP beenden
notify-send -u normal -t 3 -i /usr/share/icons/gnome/scalable/emblems/emblem-default.svg "$finishmessage"
______________________________________________________________________________________________


3.) Sicherung mittels autorun: Beispiel extern -> local


Das autorun-Script kann auf der zu externen Platte selbst gespeichert werden und mittels autostart wird das Backup ausgelöst. Hervorragend für USB-Sticks oder externe Festplatten.

Das Backup startet im Beispiel von einer externen (USB-)Platte KEYLINUX und sichert auf raidstor. Der umgekehrte Fall ist sicherlich auch möglich. Hierzu muss das Script nach dem Beispiel aus 2.) modifiziert werden.

Schreibrechte des Users auf dem Ziel bzw. Leserechte auf dem Stick sind von Vorteil!

HINWEIS: Ich habe das nur mit Linux-Dateisystemen benutzt (ext2/ext3/ext4). Für NTFS-Platten könnten zusätzliche Optionen für rsync notwendig werden.

Benötigte Pakete: libnotify-bin gvfs-bin
# Pakete installieren
$ sudo apt-get install libnotify-bin gvfs-bin

### Platte anstecken und per Nautilus einhängen
(#manuell einhängen)$ gvfs-mount -d `readlink -f /dev/disk/by-label/KEYLINUX`
$ cd /media/KEYLINUX
### Script-Datei anlegen (mit Users-Rechten, für root sudo benutzen -> $ sudo touch .autorun)
### Alternativ geht auch autorun.sh oder autorun (Vorteil .autorun ist versteckt)
$ touch .autorun
### Start-Rechte vergeben für user
$ chmod u+x .autorun
### alternativ: Start-Rechte vergeben für Gruppe
$ chmod g+x .autorun
### alternativ: Start-Rechte vergeben für alle
$ chmod a+x .autorun
### Script-Datei mir mcedit bearbeiten (oder auch Editoren wie "gedit" etc. möglich)
$ mcedit .autorun
__________________________ file: .autorun ________________________________
#!/bin/sh
startmessage='Sicherung von KEYLINUX auf raidstor wird durchgeführt.'
midmessage='KEYLINUX darf während dieses Vorgangs nicht getrennt werden!'
finishmessage='Die Sicherung von KEYLINUX ist abgeschlossen!'

notify-send -u normal -t 3 -i /usr/share/icons/grsync.png "$startmessage"
#raidstor MOUNTEN
gvfs-mount -d `readlink -f /dev/disk/by-label/raidstor`
sleep 2
notify-send -u normal -t 3 -i /usr/share/icons/gnome/scalable/status/dialog-warning.svg "$midmessage"
##BACKUP als user ausführen (nur mit entsprechenden Rechten)
rsync -ax --delete /media/KEYLINUX /media/raidstor/BACKUP
##BACKUP als root ausführen (Zeile ändern)
## gksudo "rsync -ax --delete /media/KEYLINUX /media/raidstor/BACKUP"
##BACKUP beenden
notify-send -u normal -t 3 -i /usr/share/icons/gnome/scalable/emblems/emblem-default.svg "$finishmessage"
_____________________________________________________________________

Beim Anstecken des USB-Devices erscheint nun folgende Nachricht:

Bildschirmfoto-KEYLINUX.png

Nach dem Klick auf OK, wird das Vertrauen des Scriptes eingefordert und los gehts...

Welch einen wunderschönen deutschen Namen gibt Ubuntu's Laufwerksverwaltung (palimpset) meinem frisch eingebauten Solid-State-Drive: Festkörperlaufwerk.
Zusammengesetzte Substantive sind etwas Wunderbares.


Ich hatte mich nun endlich entschieden: Eine OCZ Vertex2 E mit 120GB musste her. Nach dem Auspacken ging ich sofort zum Einbau mit anschließenden Speedtest über. Ihr werdet sehen:

Auspacken und Einbau:


01_von_aussen.jpg
Das Auspacken ist unspektakulär, schön für Desktopuser ist der mitgelieferte Einbaurahmen.

02_geoeffnet.jpg03_ausgepackt.jpg04_device.jpg

Der Einbau ist sicherlich auch keine Wunderleistung der Ingenieurkunst. Das 2.5"-Format lässt den benachbarten Platten noch schön viel Luft.
05_eingebaut.jpgNach dem Verstöpseln und dem mit Spannung erwarteten Erkennen des Laufwerks konnten die Tests beginnen.
Device Infos:

$ sudo smartctl -i /dev/sda
Device Model:     OCZ-VERTEX2
Serial Number:    OCZ-1600Y229CVXXXXXX
Firmware Version: 1.23
User Capacity:    120.034.123.776 bytes
Device is:        Not in smartctl database [for details use: -P showall]
ATA Version is:   8
ATA Standard is:  Not recognized. Minor revision code: 0x28
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

Das Testen:

Hier seht ihr die Übersicht von Ubuntus Laufwerksverwaltung "palimpset".

Bildschirmfoto-120 GB Festkörperlaufwerk (ATA OCZ-VERTEX2) [-dev-sda] -- Laufwerksverwaltung.pngEin Klick auf den Button "Smart-Werte" brachte Folgendes zum Vorschein:

Bildschirmfoto-120 GB Festkörperlaufwerk (ATA OCZ-VERTEX2) - SMART-Werte.pngBildschirmfoto-120 GB Festkörperlaufwerk (ATA OCZ-VERTEX2) - SMART-Werte-1.png

Nun gut, die SMART-Infos sind eher spärlich gesäht. Dieses System ist allerdings auch für sich bewegende Platten geschaffen und nicht für mein neu erstandenes Festkörperlaufwerk ;o)

Die Geschwindigkeitswerte im RAW-Mode sind erstaunlich. Ohne Formatieren bzw. Partitionieren geht's da richtig ab. Die Herstellerangaben werden sogar beinahe eingehalten.

Bildschirmfoto-120 GB Festkörperlaufwerk (ATA OCZ-VERTEX2) - Vergleichstest.png
Nach dieser Aktion ging ich über, mit meinem Ubuntu "Lucid Lynx" mal flugs auf die SSD umzuziehen.

Die Partitionierung sollte man möglich knauserig vornehmen. Ich gönnte mir eine 500MB Boot-Partition. Den Rest der 120GB packte ich in eine root-partition. Den Speicherbereich für Auslagerungsdaten sollte man von einer SSD fernhalten. Die Swap-Partition blieb auf meinem RAID-System. Mit einer Live-CD machte ich eine Kopie meines Produktivsystems einschließlich meines /home-Verzeichnisses. Die Boot-Partition wurde mit dem Befehl grub-install (hier nachzulesen) gefüllt und aktiviert.

Ein erfolgreiches Booten war Pflicht, um einen Speedtest an der laufenden Installation durchzuführen:

Bildschirmfoto-120 GB Festkörperlaufwerk (ATA OCZ-VERTEX2) - Vergleichstest-nach-Installation.pngHier sind nun schon einige Unterschiede zum RAW-Test zu erkennen. Allein die mittleren Zugriffszeiten streuen jetzt nicht mehr so stark (man beachte den anderen Maßstab), sind aber im Mittel jetzt bei 0.2 ms. Die Leserate ist deutlich abgesackt.

Die Tests im laufenden Betrieb streuen etwas. Ein späterer Test, mit ausgewählt besseren Werten, ist hier zu sehen:

Bildschirmfoto-120 GB Festkörperlaufwerk (ATA OCZ-VERTEX2) - Vergleichstest-latest.pngWie Euch in der Übersicht der Speichergeräte vielleicht nicht entgangen ist, habe ich auch noch zwei Vergleichslaufwerke im Rechner eingebaut. Im rein synthetischen Vergleich der Speedtests mit den Platten meines Hardware-Raid-Controllers (3ware 9650SE-4LP), ist die SSD klar überlegen.... aber seht selbst:

RAID-0 mit 2x1TB Samsung@7200rpm (Standard Desktop Platten): Device Info
$ sudo smartctl -i --device=3ware,0 /dev/twa0
Device Model:     SAMSUNG HD103UJ
Serial Number:    S13PJXXXXXXXXX
Firmware Version: 1AA01113
User Capacity:    1.000.204.886.016 bytes
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   8
ATA Standard is:  ATA-8-ACS revision 3b

$ sudo smartctl -i --device=3ware,1 /dev/twa0
Device Model:     SAMSUNG HD103UJ
Serial Number:    S13PJ1XXXXXXXX
Firmware Version: 1AA01113
User Capacity:    1.000.204.886.016 bytes
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   8
ATA Standard is:  ATA-8-ACS revision 3b

Bildschirmfoto-2,0 TB Festplatte (AMCC 9650SE-4LP DISK) - Vergleichstest.pngBildschirmfoto-2,0 TB Festplatte (AMCC 9650SE-4LP DISK) - Vergleichstest-1.png
RAID-0 2x2TB Western Digital@5400rpm (Server Platten): Device Info
$ sudo smartctl -i --device=3ware,2 /dev/twa0
Device Model:     WDC WD2002FYPS-01U1B1
Serial Number:    WD-WCAVY15XXXXX
Firmware Version: 04.05G05
User Capacity:    2.000.398.934.016 bytes
Device is:        Not in smartctl database [for details use: -P showall]
ATA Version is:   8
ATA Standard is:  Exact ATA specification draft version not indicated

$ sudo smartctl -i --device=3ware,3 /dev/twa0
Device Model:     WDC WD2002FYPS-01U1B1
Serial Number:    WD-WCAVY15XXXXX
Firmware Version: 04.05G05
User Capacity:    2.000.398.934.016 bytes
Device is:        Not in smartctl database [for details use: -P showall]
ATA Version is:   8
ATA Standard is:  Exact ATA specification draft version not indicated

Bildschirmfoto-4,0 TB Festplatte (AMCC 9650SE-4LP DISK) - Vergleichstest.pngDeutlich zu erkennen, dass der interne Speicher (cache) der Serverplatten beim Ergebnis hin und wieder ordentlich reinhaut. Die Samsung-Desktopplatten zeigen diesen Effekt nicht. Daher muss davon ausgehen, dass der RAID-Controller nicht Schuld ist.

Bildschirmfoto-4,0 TB Festplatte (AMCC 9650SE-4LP DISK) - Vergleichstest-1.pngBildschirmfoto-4,0 TB Festplatte (AMCC 9650SE-4LP DISK) - Vergleichstest-2.png
Der Cache bringt insbesondere den Serverplatten nur einen kurzen Schub, deshalb kann man die maximalen Lesegeschwindigkeiten getrost ausklammern. Der Effekt ist zwar da, ich kann aber nur schwer einschätzen ob er etwas bringt.

Interessant am letzten Teil meines SSD-Berichts ist eigentlich der direkte Plattenvergleich 7200 vs. 5400 rpm (Umdrehungen/min). Die SSD ist den Werten nach deutlich vorn.

HDPARM-Test:

$ sudo hdparm -tT /dev/sda

/dev/sda:
 Timing cached reads:   8482 MB in  2.00 seconds = 4243.98 MB/sec
 Timing buffered disk reads:  404 MB in  3.01 seconds = 134.12 MB/sec

$ sudo hdparm -tT /dev/sdb

/dev/sdb:
 Timing cached reads:   8886 MB in  2.00 seconds = 4446.25 MB/sec
 Timing buffered disk reads:  674 MB in  3.00 seconds = 224.48 MB/sec

$ sudo hdparm -tT /dev/sdc

/dev/sdc:
 Timing cached reads:   9036 MB in  2.00 seconds = 4521.76 MB/sec
 Timing buffered disk reads:  650 MB in  3.00 seconds = 216.32 MB/sec


So, nun könnt ihr mal raten, welche Platte(n) sda sdb oder sdc sind.

Das Ausschlusskriterium gibt Euch Recht. SDA muss mein neues Festkörperlaufwerk sein. Ist So: Hier spielen die Buffer des 3ware-RAID-Controllers wohl ihre Stärken aus.


Subjektive Beurteilung:

Der gefühlte Geschwindigkeitsgewinn ist lediglich beim Programmstart auszumachen. Beim Booten spielt offenbar der CPU auch noch eine wichtige Rolle bzw. ist der Datendurchsatz der SSD im Vergleich zum Hardware-RAID-0 nicht allzu viel höher.

Ubuntu hat mit dem Samsung-RAID in ca. 23s bis zum Login gebootet. Die SSD braucht nun ca. 20s.

Die Festplatten (raid) gingen vor allem bei einem Parallelstart von virtuellen Maschinen in die Knie. Ein gleichzeitiger Start von Ubuntu und Windows hatte ein längeres Warten zur Konsequenz. Mit der SSD ist dieser Zustand Geschichte. GIMP oder Firefox sind prompt da. Nach dem Login bis zum "fertigen" Desktop geht es spürbar schneller. Der Geschwindigkeitsgewinn ist schon spürbar.

Fazit:

Die Anschaffung hat sich für mich schon gelohnt. Wer allerdings mehr Wert auf viel Speicherplatz legt, sollte lieber in einen vernünftigen Hardware-RAID-Controller investieren.

Beim Kopieren von großen Datenvolumen sind sicherlich die RAID-Laufwerke die Bremse, jedoch kann ich auf diese nur große Daten kopieren. Die Kopiererei von SSD zu SSD wäre sicherlich schneller. Aber bisher sind die größeren Exemplare dieser Gattung unerschwinglich und meiner Meinung nach auch unnötig, da der Vorteil einer SSD im Vergleich zu einem vernünftigen RAID-System nur in Extremsituationen merkbar ist. Schlichtweg im Desktop-Rechner eine Sache für Nerds... im Mobilbereich bestimmt eine Revolution.

Update:


Letzlich kopierte ich eine 5,5GB große Datei von meinem Desktop (Festkörperlaufwerk) auf eine raid-Partition. Die Übertragungsrate pendelte sich so bei 70-80MB/s ein: Das kann doch nicht sein, dachte ich. Ein nachfolgender Test von raid-zu-raid war etwa doppelt so schnell. (Hab's leider nicht dokumentiert.)

Das veranlasste mich zu einem erneuten Test mit der gleichen Datei, wobei ich die Werte leider nicht reproduzieren konnte. Eventuell lief da noch etwas im Hintergrund. Trotzdem sehr interessant.

Dateisysteme bei allen Laufwerken sind: ext4

(Ist klar: Der Balken symbolisiert lediglich den Kopierfortschritt!)

Festkörperlaufwerk (Desktop) ==> WD-Raid@5400rpm (raidstor)

Bildschirmfoto-Dateioperationen-Desktop-Raidstor.pngFestkörperlaufwerk (Desktop) ==> Samsung-Raid@7200rpm (Videos)

Bildschirmfoto-Dateioperationen-Desktop-Videos.png
WD-Raid@5400rpm (raidstor) ==> Festkörperlaufwerk (Desktop)

Bildschirmfoto-Dateioperationen-Raidstor-Desktop.pngWD-Raid@5400rpm (raidstor) ==> Samsung-Raid@7200rpm (Videos)

Bildschirmfoto-Dateioperationen-Raidstor-Videos.pngSamsung-Raid@7200rpm (Videos) ==> Festkörperlaufwerk (Desktop)

Bildschirmfoto-Dateioperationen-Videos-Desktop.pngSamsung-Raid@7200rpm (Videos) ==> WD-Raid@5400rpm (raidstor)

Bildschirmfoto-Dateioperationen-Videos-Raidstor.png Naja, ich brauche da nicht zu viel Worte zu verlieren, hier ist eine Übersichtstabelle.

Quelle  /  Ziel                  SSD            WD-Raid           Samsung-Raid

SSD                             ----------           144 MB/s           140 MB/s

WD-Raid                      93 MB/s           -----------             145 MB/s

Samsung-RAID            96 MB/s          135 MB/s             -----------


Es ist schön zu wissen, dass man mit einem Linux-Server bedenkenlos in neue Hardware umziehen kann. Allerdings hatte ich es noch nie ausprobiert.
Endlich war es soweit, meine alte 500Mhz-Kiste wird durch eine alte 1000Mhz-Kiste ersetzt... mit hoffentlich wenig Aufwand.

So, Festplatte umgebaut, angeschaltet, fertig. Und nun!? Das Netzwerk und jegliche damit zusammenhängenden Dienste liefen nicht. Das Netzwerk ist mit das Wichtigste was einen Server ausmacht. Das ausgerechnet dies nun nicht funktioniert, hatte ich echt nicht gerechnet. Ohje, was nun.

Das Netzwerkgerät eth0 war nun eth1 und wurde schlichtweg nicht benutzt. Schreck lass nach!

Man muss die Zuordnung zu eth0 irgendwie manuell umstellen. Etwas Recherche hat mich auf folgende Datei gebracht:

/etc/udev/rules.d/70-persistent-net.rules
____________________________
# This file maintains persistent names for network interfaces.
# See udev(7) for syntax.
#
# Entries are automatically added by the 75-persistent-net-generator.rules
# file; however you are also free to add your own entries.

# Converted from /etc/iftab on upgrade
#SUBSYSTEM=="net", DRIVERS=="?*", ATTRS{address}=="00:12:34:89:ab:d1", ATTRS{type}=="1", NAME="eth0"


# PCI device 0x10ec:0x8139 (8139too)
SUBSYSTEM=="net", ACTION=="add", DRIVERS=="?*", ATTR{address}=="01:23:45:90:bc:d2", ATTR{type}=="1", KERNEL=="eth*", NAME="eth0"
____________________________

In dieser Datei wird nur die Zuordnung des "network device" von 1 auf 0 gestellt (letzte Zeile) und der alte Eintrag auskommentiert. Nach einem Neustart lief der Kleine und der Umzug war geschafft!


So, ich habe mein ubuntu (lucid) neu installiert, das Paket "gshutdown" gehört bei mir immer dazu. Dieses wunderbare Tool schaltet den Rechner nach oder zu einer bestimmten Zeit aus... sollte es. Nur, dass das shutdown nicht seine Arbeit verrichtet. Immer wenn ich dem Programm den Auftrag gebe nach einigen Minuten den Rechner auszuschalten, lande ich im gdm-login. Voll Nervig!

Mit etwas Nachforschen habe ich folgenden Workaround entdeckt:

#INSTALLATION
$ sudo apt-get install gshutdown


#shutdown (set user or group ID on execution)
$ sudo chmod +s /sbin/shutdown

#KONFIGURATION
#gshutdown öffnen und die Befehle manuell konfigurieren

Bildschirmfoto-Preferences.png
Folgende Eintragungen sind erforderlich:
#Schalte den Rechner aus
shutdown -h now

Bildschirmfoto-Configure the action.png
Analog muss man mit den anderen Einträgen wie folgt verfahren:
#Rechner neu starten
shutdown -r now
#Diese Sitzung beenden
logout -> gnome-session-save --logout --gui


Ab jetzt kann man in Ruhe beim heute-journal der ZDF-Mediathek nach dem Wetter einschlafen...

Reblog this post [with Zemanta]

Aufgabe: Meine beiden neuen 2TB-Platten zu einem 4TB-RAID zusammenzuschließen.

Übliche Fakeraid-Controller bieten zur Zeit keine Unterstützung von Gesamtsystemen größer 2TB. Ich habe es mit meinem onboard-nvraid (nforce 680i) versucht, es gab nur Probleme. Der Controller hat lustigerweise 1,67TB angezeigt - Ubuntu hat den nvraid ignoriert und die Platten erkannt, Windows hat nvraid und die Platten einfach nur ignoriert.

Im Allgemeinen braucht man RAID-Controller mit 64-bit-LBA support. Diese können mit Plattensystemen größer als 2TB vernünftig umgehen. Das alte MSDOS-Partition-Table-Fromat, was noch üblicherweise Standard ist, funktioniert ebenfalls nur bis 2TB. Hierzu muss man das gpt-Format (global partition table), auch GUID-Partitionstabelle genannt, benutzen. Windows kann zwar gpt-Partitionen benutzen, davon jedoch nicht booten. Mit dem Ext4-Dateisystem kann man noch nicht allzuviel im Windows anfangen. Das stört mich auch nicht weiter.

Da ich das Datengrab schließlich auch nur im Linux benutzen wollte, habe ich mich für ein komplettes Software-RAID0 auf dmraid-Basis (ubuntu 9.10 karmic 64bit) mit gpt-Partition und dem Dateisystem ext4 entschieden. Es muss nicht bootfähig sein, einfach nur mit voller Größe funktionieren.

Die 64-bit-Version des Betriebssystems hat nichts mit dem 64-bit-LBA zu tun. Das gesamte Prozedere kann man genauso gut auch auf einem 32-bit-Linux durchführen.

Meine Vorgehensweise: (# = Kommentare, $ = Terminal-Eingabezeilen, alles andere = Terminal-Ausgaben)
_____________________________________________________________________________
#####RAIDSTOR2 (2x2TB) (Software-RAID isw)
### isw-format="Intel Software RAID" (siehe auch $ dmraid -l) unterstützt auch 4TB
##NEU (7814039228 blocks, 1 block=512 byte) (bei unbekannter Größe "size=-1" benutzen)

$ sudo dmraid -f isw -C raidstor --type 0 --size=7814039228B --strip 256B --disk "/dev/sdc /dev/sdd"

Create a RAID set with ISW metadata format

RAID name: raidstor
RAID type: RAID0
RAID size: 3726G (7814039228 blocks)
RAID strip: 128k (256 blocks)
DISKS: /dev/sdc, /dev/sdd,


About to create a RAID set with the above settings. Continue ? [y/n] :y

$ sudo dmraid -ay
RAID set "isw_eagdiafafc_raidstor" already active
$ sudo parted /dev/mapper/isw_eagdiafafc_raidstor
(parted) mklabel
Warnung: Die bestehende Partitionstabelle und alle Daten auf
/dev/mapper/isw_eagdiafafc_raidstor werden gelöscht. Wollen Sie fortfahren?
Ja/Yes/Nein/No? ja
Neuer Disk-Label-Typ? [gpt]? gpt
(parted) mkpart primary ext4 128kB -1s
Warnung: You requested a partition from 128kB to 4001GB.
The closest location we can manage is 128kB to 4001GB.
Is this still acceptable to you?
Ja/Yes/Nein/No? ja
(parted) q
Information: Möglicherweise müssen Sie /etc/fstab anpassen.
#$ sudo reboot
##NEUSTART! (möglich, aber eigentlich unnötig, da partprobe alles findet)

## Namen des neu erstellten RAID suchen
$ ls /dev/mapper/*
isw_eagdiafafc_raidstor
$ sudo partprobe /dev/mapper/isw_eagdiafafc_raidstor
#ext4-filesystem erstellen ohne reservierten Bereich für root
$ sudo mkfs.ext4 -m 0 -L raidstor2 /dev/mapper/isw_eagdiafafc_raidstor1
mke2fs 1.41.9 (22-Aug-2009)
Dateisystem-Label=raidstor2
OS-Typ: Linux
Blockgröße=4096 (log=2)
Fragmentgröße=4096 (log=2)
244195328 Inodes, 976754908 Blöcke
0 Blöcke (0.00%) reserviert für den Superuser
Erster Datenblock=0
Maximale Dateisystem-Blöcke=4294967296
29809 Blockgruppen
32768 Blöcke pro Gruppe, 32768 Fragmente pro Gruppe
8192 Inodes pro Gruppe
Superblock-Sicherungskopien gespeichert in den Blöcken:
32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
4096000, 7962624, 11239424, 20480000, 23887872, 71663616, 78675968,
102400000, 214990848, 512000000, 550731776, 644972544

Schreibe Inode-Tabellen: erledigt
Erstelle Journal (32768 Blöcke): erledigt
Schreibe Superblöcke und Dateisystem-Accountinginformationen: erledigt

Das Dateisystem wird automatisch nach jeweils 20 Einhäng-Vorgängen bzw.
alle 180 Tage überprüft, je nachdem, was zuerst eintritt. Veränderbar mit
tune2fs -c oder -t .
#RAID-System einhängen
$ sudo mkdir /media/raidstor2
$ sudo mount -t ext4 /dev/mapper/isw_eagdiafafc_raidstor1 /media/raidstor2
#Besitz übernehmen
$ sudo chown -R tobi:tobi /media/raidstor2
_____________________________________________________________________________

So, das war's. Fertig!

Dummerweise wird die Partition nicht automatisch beim Neustart gefunden. Muss wohl an der Größe liegen. Ich habe einfache Abhilfe gefunden. Ein verknüpftes Script im Panel, was folgenden Inhalt hat:
_____________________________________________________________________________
gksudo partprobe /dev/mapper/isw_eagdiafafc_raidstor
gksudo mount -t ext4 /dev/mapper/isw_eagdiafafc_raidstor1 /media/raidstor2
_____________________________________________________________________________

genügt. Ein Klick darauf bindet die Platten wunderbar ein.

Sicherlich ist das nur eine Zwischenlösung... nicht supertoll aber benutzbar und sogar hardwareunabhängig.

Über dieses Archiv

Diese Seite enthält aktuelle Einträge der Kategorie ubuntu.

storage ist die vorherige Kategorie.

windows ist die nächste Kategorie.

Aktuelle Einträge finden Sie auf der Startseite, alle Einträge in den Archiven.

Archiv

Mai 2014

So Mo Di Mi Do Fr Sa
        1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31

Aktuelle Kommentare

  • petruschka: halooo, wer hatt auch was sinn volles, für windows 7 weiterlesen
  • Tobias Hesse: Danke für Eure Kommentare, das mit dem "makeactive" ist 'ne weiterlesen
  • Jürgen: DANKE... Nach vielen erfolglosen Versuchen und Suchem im Netz bin weiterlesen
  • Anonym: Danke für die Info! Ich bin auch über das Problem weiterlesen
  • Patrick: Hi Tobi, danke für deinen Kommentar. Über deine Seite war weiterlesen
Creative Commons License
Dieses Blog steht unter einer Creative Commons-Lizenz.