GNU Screen richtig nutzen

Screen ist für mich eines der wichtigsten Konsolenprogramme. Verbindet man sich mit ssh zu einem Rechner, vermisst man schnell die Fähigkeit einer modernen grafischen Oberfläche zwischen verschiedenen Anwendungen und Fenstern einfach hin- und her zu wechseln. Und wie können ausgeführte Programme in der Konsole auch nach dem Logout weiterlaufen? Hier kommt screen ins Spiel.
Beim Start von screen erscheint eine Nachricht und danach scheint es als ob sich nicht viel geändert hätte. Lediglich die Eingabeaufforderung der Shell blinkt einem entgegen.


Hier lässt sich nun z.B. rtorrent starten und der Bildschirm horizontal mit Strg+A und S teilen. Mit Strg+A und TAB springt man zur nächsten Bildschirmregion und kann dort mit Strg+A und c eine neue Shell öffnen und z.B elinks starten. Dies würde dann meinem schon vorgestellten rtorrent Setup entsprechen und sieht wie folgt aus.


Screen lässt sich aber nicht nur horizontal sondern auch vertikal teilen. Um das rtorrent Fenster vertikal zu teilen und htop anzuzeigen, springt man einfach mit Strg+A und TAB in die obere Hälfte zurück. Dann genügt bei Debian und Ubuntu ein Strg+A und | um den Bildschirm erneut zu teilen.
Anschließend wird der Schritt zum Starten einer neuen Anwendung wiederholt, wiederum Strg+A und TAB um zur nächsten Region zu gelangen, Strg+A und c um die Shell zu öffnen und dann htop eingeben.


Das Spiel lässt sich nun beliebig weiter treiben. Mit Strg+A und d bietet screen eine seiner besten Optionen an, nämlich screen abzutrennen und in den Hintergrund zu schicken. Danach befindet man sich wieder auf der ursprünglichen Konsole, alle in screen ausgeführten Programme laufen aber weiter!
Man könnte sich also problemlos ausloggen, zu Bekannten fahren, von dort sich erneut zu seinem Rechner mit ssh verbinden und danach mit dem Kommando screen -r seine Session wieder aufrufen.
Leider ist die Aufteilung der Anwendungen in verschiedene Regionen dann verschwunden und man müsste von neuem die Einteilung vornehmen. Natürlich lässt sich einfach mit Strg+A und SPACE zwischen den "Fenstern" wechseln. Oder man springt direkt zu einem Fenster indem man Strg+A und 0,1 oder 2 eingibt.
Wäre es nicht besser, man hätte eine Statusleiste, in der die unterschiedlichen Programme mit Namen und Fensterzahl schon angezeigt würden? Wäre es nicht praktischer die Anwendungen schon sofort beim Starten von screen mit auszuführen, ohne den Umweg über das Öffnen einer neuen shell zu gehen?
Der "Trick" ist die im Home Ordner versteckte Datei .screenrc zu erstellen, welche bei mir so aussieht.

hardstatus alwayslastline "%-w[%n %t]%+w%=%H %c Load: %l"
shelltitle '...'
startup_message off
vbell off
blankerprg /home/apo/.scripts/screensaver.sh
idle 300 blanker
#screen -t centerim 0 /home/apo/.scripts/centerim.sh
#screen -t alpine 1 alpine -d 0
#screen -t mc 2 /home/apo/.scripts/mc.sh
screen -t rtorrent 1 rtorrent
screen -t htop 2 htop
#screen -t wyrd 4 wyrd
screen -t elinks 3 /home/apo/.scripts/elinks.sh
#screen -t hnb 8 hnb
screen -t slurm 4 slurm -i eth0
GNU Screen

Aufmerksamen Lesern von KMandlas hervorragendem Linuxblog und Testern seiner Debian Lenny Sandbox Edition fällt hier sicher auf, dass es sich mit geringfügigen Änderungen um seine screenrc handelt. Sie ist übersichtlich und enthält meiner Meinung auch alles was man für die effiziente Benutzung von screen braucht.
Was macht diese Konfigurationsdatei? Zum einen verschwindet die Startnachricht, die man nicht wirklich benötigt. Die visuelle Rückmeldung, wenn sich etwas in den Fenstern getan hat, ist ebenfalls ausgeschaltet. Mit Shelltitle lässt sich der Name einer mit Strg+A und c gestarteten shell festlegen.
Die Zeile blankerprg verweist auf ein Bildschirmschoner-Skript, welches nach 5 Minuten ausgeführt wird, sollte man in der Zwischenzeit keine weiteren Aktionen in screen vorgenommen haben. Im Grunde genommen handelt es sich hier mehr um ein Gimmick, welches bei modernen Monitoren nicht notwendig ist. Ich stelle es ein anderes Mal ausführlicher vor.
Die restlichen Zeilen sind Programme, die ich regelmäßig in meiner Screen Session ausführe. Da ich nicht auf jedem Rechner immer die gleichen benötige, sind manche mit der # kommentiert. Der Aufbau ist simpel

screen -t Titel des Fensters Fensterzahl Name des Programms und Startparameter

Somit wird aus einem langweiligen Terminalfenster ein Fenstermanager für die Konsole. Zwischen den einzelnen Fenstern lässt sich danach wie gewohnt mit Strg+A und Space oder Strg+A und Fensterzahl wechseln.

Wer weitere Vorschläge für das Aussehen der Statuszeile bei screen sucht, findet schon bei Google mit dem Begriff hardstatus und screen viele weitere Ideen. Noch einfacher geht es, wenn man direkt byobu ausprobiert, was nichts anderes als ein verbessertes oder besser verschönertes screen ist.


Screen ist nicht nur für Serveradmins sinnvoll. Auch für alte Computer mit sehr wenig RAM bietet sich screen mit vielen nützlichen Konsolenprogrammen an, womit sich E-Mail schreiben, Browsen, Chatten, Bittorrent und vieles mehr realisieren lässt. Viel Spass beim Ausprobieren!

Mehr Sicherheit mit GnuPG

Ich habe gestern meinen drei Jahre alten öffentlichen PGP Schlüssel widerrufen und mir ein neues Schlüsselpaar erstellt. Um mir in Zukunft zu merken, welche Konsolenbefehle zum Erstellen des Schlüssels und später zum Ver- und Entschlüsseln notwendig sind, hierzu eine kurze Anleitung.
Es gibt mittlerweile viele gute und vor allem ausführliche Anleitungen zu GNU Privacy Guard, darunter z.B.
http://hp.kairaven.de/pgp/gpg/index.html

Ich persönlich benutze GnuPG hauptsächlich zum Signieren meiner Emails und zum Verschlüsseln von Dateien und Dokumenten, die ich mit Dropbox irgendwo in der Cloud ablege. Zum Widerrufen des öffentlichen Schlüssels habe ich Seahorse benutzt, welches man bei Ubuntu unter System->Einstellungen->Passwörter und Verschlüsselung findet.
Auch das Erstellen des Schlüssels und der Export auf einem Schlüsselserver ist damit bequem zu lösen, im Grunde ist Seahorse nur ein Frontend für GnuPG welches die wichtigsten Funktionen bereitstellt.
Doch mit ein paar Befehlen auf der Kommandozeile geht es natürlich auch zu lösen.

Schlüsselpaar erzeugen
gpg --gen-key

Das folgende interaktive Menü ist ziemlich selbsterklärend. Die Voreinstellungen zum Verschlüsselungsalgorithmus sind sinnvoll, weswegen man nur noch Name, Email und Verfallsdatum der Schlüssel angeben muss.

Öffentliche Schlüssel im Schlüsselring auflisten
gpg --list-keys

Den Schlüssel an einen Schlüsselserver schicken
gpg --send-keys Key-ID
gpg --keyserver hkp://keyserver:port --keyserver-options verbose --send-keys Key-ID

Widerrufzertifikat
gpg --gen-revoke Key-ID > Key-ID.revcert.asc

Einmal auf einen Schlüsselserver hochgeladen, lässt sich der öffentliche Schlüssel nicht mehr ohne den eigenen privaten Schlüssel und das Passwort widerrufen. Deshalb sollte man für alle Fälle sofort ein Widerrufzertifikat erstellen und sicher verwahren.

Nach öffentlichen Schlüsseln auf einem Schlüsselserver suchen
gpg --search-keys "Suchstring"

Eine weitere E-Mail Adresse zu einem Schlüssel hinzufügen
gpg --edit-key Key-ID

adduid eingeben, Name wiederholen und neue E-Mail Adresse hinzufügen und danach mit save abspeichern.

Verschlüsseln und signieren einer Datei mit GnuPG
gpg -ser Key-ID datei

Entschlüsseln
gpg -do datei_output datei_verschlüsselt

Verschlüsseln und Entschlüsseln zum Dateimanager Thunar hinzufügen

Ubuntu integriert das Ver- und Entschlüsseln schon im Dateimanager Nautilus. Wer wie ich z.B. Thunar nutzt kann dies im Menü Bearbeiten->Benutzerdefinierte Aktionen einstellen.
Zwei neue Namen für die Aktionen ausdenken und für Verschlüsseln diesen Befehl schreiben:

Verschlüsseln
urxvtcd -e sh -c "gpg -e -r Key-ID %f"

Entschlüsseln
urxvtcd -e sh -c "gpg -o %n.entschlüsselt -d %f"

Der Terminalemulator urxvt lässt sich natürlich durch jeden anderen ersetzen. %f steht für den Dateinamen und Key-ID muss wie in den vorangegangen Beispielen mit der gewünschten Schlüssel-ID ersetzt werden.
GnuPG ist ein sehr nützliches Werkzeug um seine Dateien sicher auf fremden Cloudservern abzulegen oder sichere Emails zu verschicken. Definitiv ein "Must-have" Programm auf jedem Linuxsystem.

Debian tauscht sich mit seinen Derivaten aus

Seit vergangenen Freitag hat Debian ein neues Projekt ins Leben gerufen, damit in Zukunft Verbesserungen in anderen auf Debian basierenden Distributionen einfacher an das Hauptprojekt zurückgegeben werden können.
Mit Debian Derivatives Exchange, kurz DEX, knüpft Debian an sein Zensusprojekt an, um mehr Feedback von den knapp 300 verschiedenen Derivaten zu erhalten. Hierbei wird zwischen in Debian entwickelten Geschmacksrichtungen, "Blends", und separat entwickelten Derivaten wie z.B. Ubuntu unterschieden.
Da es schon schwierig sein kann innerhalb einer Distribution die richtigen Kommunikationswege zu finden, wird dieser Informationsaustausch durch eine mittlerweile fast unüberschaubare Anzahl von weiteren unabhängigen Projekten nicht leichter gemacht.
Wer ist mein Ansprechpartner? Wie kann ich ihn kontaktieren und über was soll sich eigentlich ausgetauscht werden? Wer pflegt den neu entwickelten Code in ein Debian kompatibles Paket ein und wer entscheidet darüber, was "guter" Code ist und was nicht?
Oft unterscheiden sich schon die einzelnen Projektphilosophien stark von einander. Obwohl alle auf die gleiche Softwarebasis setzen, macht sich jeder seine eigenen Gedanken, was eigentlich eine gute Distribution ist, worüber ich auch schon ein paar Gedanken verloren habe.
Was in der Theorie logisch und einfach klingt, lässt sich in der Praxis schwierig umsetzen, da außer dem Interesse für ein Freies Softwareprojekt keine Hierarchie zwischen Debian und den Derivaten existiert.
Wie kommt man nun auf 300 Debian-Derivate? Hierzu führt ein Link auf der DEX Seite zu einem lesenswerten Artikel in Englisch, welcher anschaulich vor Augen führt, in wie viel verschiedenen Distributionen eigentlich Debian steckt.
Obwohl ich nicht voraussehen kann wie erfolgreich DEX sein wird, halte ich doch die Gedanken, die dahinter stecken, für wichtig und langfristig für alle Derivate auch für vorteilhaft. Denn nicht nur für ein einzelnes Stück Software, sondern auch für ganze Distributionen sollte meiner Meinung nach DRY gelten.

Eine Lanze für id Software brechen

Ich war schon immer ein großer Fan der Spieleschmiede id Software. Insbesondere bewundere ich bis heute, dass es für dieses Unternehmen nie ein Problem war, auch einen Linux-Client zu seinen Spielen zu entwickeln.
Das waren nicht irgendwelche Spiele, sondern aus heutiger Sicht wahre Spieleklassiker. Keine 2D-Textkonsolenspiele sondern optisch herausragende und Hardware fordernde 3D-Shooter.
Dabei beließen es die Entwickler nicht nur bei ihren Linux-Clients, sondern sie veröffentlichten den gesamten Quellcode der wichtigen Spielengine in der Regel nach fünf Jahren unter der GPL.
Dies ist auch der Grund, warum heutzutage so viele Quake-Klone existieren, die allesamt durch eine hohe Qualität und neue Feature überzeugen wie z.B. Alien Arena, OpenArena oder Warsow.
Wo wären native Linux Spiele heute, wenn viele andere Spielehersteller diesem Beispiel gefolgt wären? Offensichtlich ist es also keineswegs unmöglich, dass herausragende Spiele auch ihren Weg auf die Linux-Plattform finden. Und genau aus diesem Grund möchte ich mir nur wegen eines optionalen Computerspiels kein weiteres unfreies Betriebssystem zulegen.
Nichtsdestotrotz kann ich damit leben, wenn Hersteller ihr Spiel zuerst einmal unter einer "closed source" Lizenz veröffentlichen. Computerspiele sind optional, weswegen ich hier auch keine Gefahr für freien Informationsaustausch oder das Ende des Informationszeitalters sehe.
Ich erwähnte ja schon, dass ich id Software klasse finde und hier ist ein Spiel, welches es verdient hat vorgestellt zu werden.

DOOM 3

Doom 3 ist mehr als ein Ego-Shooter. Die Bezeichnung "Interaktiver Action-Horror-Film" würde besser zu diesem Titel passen. Vielleicht kann nicht jeder etwas mit der düsteren, beklemmenden Atmosphäre dieses diabolischen Science-Fiction-Klassikers anfangen. Wer sich dennoch darauf einlässt bekommt selbst heute, sieben Jahre nach Veröffentlichung des Spiels, einen guten Eindruck von den Fähigkeiten von id Software.
"Musste man das etwa mit den Händen spielen?" "Das ist ja Babyspielzeug!"
Doom 3 ist tatsächlich schon sieben Jahre alt, wahrhaftig eine Ewigkeit im IT-Zeitalter, doch dafür sah die Grafik damals gar nicht so schlecht aus oder?

Wer Doom 3 gerne mit seiner Lieblingsdistribution spielen möchte, braucht nicht viel zu tun. Zuerst sollte das sogenannte Point Release heruntergeladen werden, eine Datei, die ähnlich aussieht wie doom3-linux-xxx.run.

Danach muss man sie nur noch mit chmod + x doom3-linux-1.3.1.1304.x86.run ausführbar machen und als root oder mit sudo voran

sh doom3-linux-1.3.1.1304.x86.run

ausführen. Die auf den Original-CDs existierenden *.pak Dateien befinden sich in /Setup/Data/base/ und müssen nach /usr/local/games/doom3/base kopiert werden.
Danach lässt sich das Spiel entweder durch Klick auf das Doom-3-Symbol in seinem Anwendungsmenü starten oder direkt als Befehl doom3 im Terminal ausführen.
Die Installation wird gut auf ubuntuusers.de oder holarse-linuxgaming.de beschrieben.
Dort findet sich auch ein guter Tipp, wie man die Bildschirmauflösung von Doom 3 anpassen kann, falls diese nicht direkt unterstützt wird. Für eine 1680x1050 Auflösung muss nur noch einmalig

doom3 +set r_mode -1 +set r_customwidth 1680 +set r_customheight 1050

im Terminal ausgeführt werden.
Spielen unter Linux ist ohne weiteres möglich. Id Software ist der beste Beweis dafür. Bleibt nur noch allen iddqd zu wünschen. 😉

Pläne für ein Multi-Boot-System

Mein Entschluss steht fest. Mit Erscheinen von Ubuntu 11.04 werde ich ein Multi-Boot-System auf meinem Dual Core Rechner einrichten. Nein, ich werde nicht wieder zu Windows zurück wechseln. 😉
Mein erstes Multi-Boot-System entstand ganz am Anfang meiner Linux-"Karriere". Damals steckten viele Lösungen für Open-Source-Virtualisierung noch in den Kinderschuhen oder waren zumindest noch nicht so verbreitet wie das heute der Fall ist. Oft mangelte es auch an Wissen und leistungsfähiger Hardware.
Für viele war und ist der erste Schritt zu Linux ein Dual-Boot-System mit Windows. Natürlich unterstützt Windows bis heute nicht mehrere Betriebssysteme parallel auf einem Computer und auch fremde Dateisysteme lassen sich nicht ohne weiteres lesen oder sogar beschreiben.
Aus diesem Grund testete ich früher schon viele Betriebssysteme parallel und war Linux schon damals dankbar sich so geräuschlos um Multi-Boot-Systeme zu kümmern. Zuletzt waren fünf verschiedene Linuxdistributionen auf einem Rechner installiert, die alle mit Hilfe von GRUB gestartet wurden.
Heutzutage nutze ich weder Windows noch brauche ich zwingend verschiedene Linuxsysteme auf einem Rechner, ein paar alten Laptops sei Dank. 😉 Wenn überhaupt läuft ein weiteres Betriebssystem in Virtualbox oder Qemu.
Der Grund für ein Multi-Boot-System ist also wiedermal die Neugier und ein bisschen Experimentierfreude. Mit Ubuntu 11.04 setzt Ubuntu erneut andere Maßstäbe und favorisiert ab sofort eine eigene Desktopoberfläche namens Unity.
Prinzipiell lässt sich natürlich weiterhin zwischen Unity und Gnome 3 und jeder anderen Desktopumgebung wählen. Es besteht also keine Notwendigkeit Ubuntu den Rücken zu kehren.
Nichtsdestotrotz kommt mit Debian Testing und etwas Mint alias LinuxMintDebian mehr Abwechslung herein und schließlich komplettiert dies auch Debian Squeeze auf dem Toshiba Portégé und Debian Sid auf dem Dell Inspiron Laptop. 🙂
Momentan ist die Idee also LinuxMintDebian als Betriebssystem für alle typischen Desktopanwendungen zu nutzen und Ubuntu 11.04 gezielt für Video- und Audiobearbeitung einzusetzen, ohne dabei auf das schon vorgestellte Ubuntustudio zurückzugreifen.
Das dritte und eventuell vierte Betriebssystem dient dann mehr dem Ausreizen aller Möglichkeiten und ich wollte schon immer mal ein persönlich angepasstes ArchLinux erstellen. 🙂
Schade, dass Ubuntu 11.04 erst Ende April erscheint. 😈

Linux-Backup the Debian way

Nachdem ich in den letzten beiden Beiträgen meine Backupmethode und ein paar Distributionen zum Klonen der gesamten Festplatte vorgestellt habe, hier eine typische Debian Methode um ein Problem zu lösen.
Wer nicht unbedingt auf eine externe Lösung zurückgreifen möchte, um sein System zu klonen, kann mit Hilfe von Debians Paketverwalter dpkg seine Paketliste mit der aktuell installierten Software in eine Textdatei ausgeben und sichern lassen. Bei einer Systemwiederherstellung muss diese wiederum mit dem Paketverwalter eingelesen werden, wonach nur noch ein

aptitude update
aptitude safe-upgrade

genügt, um die ursprüngliche Software erneut zu installieren und das Ausgangssystem wiederherzustellen.

Auf dem Quellrechner
dpkg --get-selections > meine_auswahl

Auf dem Zielrechner
dpkg --clear-selections
dpkg --set-selections < meine_auswahl

Es empfiehlt sich auch den Ordner /etc und /home zu sichern, damit eventuell geänderte Einstellungen auf das neue System übertragen werden können.

Der Vorteil bei der Debian Methode

  • Keine externe Anwendung oder Distribution notwendig
  • Sehr einfach und schnell auf dem Quellrechner zu sichern.
  • Es müssen nur die wichtigsten Konfigurationsdateien gesichert werden.

Der Nachteil

  • Viele Pakete müssen ggf. neu installiert werden, was Zeit bei der Wiederherstellung kostet.

Mehr dazu findet sich auch auf der man Seite von dpkg.

Linuxdistributionen für Datenrettung und Backup

Glücklich dürfen sich diejenigen schätzen, die niemals einen Hardwaredefekt erlebt haben und plötzlich um ihre Daten bangen mussten. Bei mir ist das zum Glück auch schon Jahre her und auch nur auf einem Testrechner passiert, aber komplett ausschließen lässt es sich leider nie.
Für mich funktioniert bei Backups meine "Keep it simple"-Strategie, doch natürlich gibt es unter Linux auch die Möglichkeit seine gesamte Festplatte oder eine Partition zu klonen und als Image auf einen externen Datenträger zu sichern und noch weitere nützliche Werkzeuge.

Clonezilla


Clonezilla ist eine auf Debian oder Ubuntu basierende Linuxdistribution, deren Zweck es ist Festplattenabbilder zu erzeugen und wiederherzustellen. Darüber hinaus beherrscht Clonezilla die Fähigkeit die Images auf mehrere Rechner gleichzeitig per Multicasting zu übertragen. Für Normalnutzer sicher nicht so wichtig, für große Netzwerke aber sehr effizient und zeitsparend.
Es gibt zwei Versionen. Die auf Debian basierende ist vollständig Open Source inklusive aller im Linuxkernel enthaltenen Firmwaretreiber. Die Ubuntu-Version bietet dafür Unterstützung auch für nicht freie Firmware. 192 MB RAM sind die Mindestvoraussetzung.
Es werden alle wichtigen Dateisysteme für Linux, Windows, MacOS und BSD unterstützt und auch verschlüsselte Festplatten lassen sich mit dem universellen Backup Programm dd klonen.
Die Bedienung ist menügesteuert oder kann zwecks Automatisierung auch kommandozeilenorientiert erfolgen. Auf der offiziellen Seite finden sich Screenshots, die die einzelnen Menüs von Clonezilla zeigen.


Ein schönes Feature ist die Möglichkeit das Backup über SSH, Samba oder NFS zu übertragen. Die Geschwindigkeit beim Backup/Wiederherstellen empfinde ich als sehr hoch, dank Clonezillas Fähigkeit nur tatsächlich belegte Sektoren auszulesen.
Einziger Wermutstropfen ist die Tatsache, dass mit LUKS verschlüsselte Partitionen nur mit dd gesichert werden können, was viel Zeit in Anspruch nimmt.
Die Sprachunterstützung nimmt weiter zu, Deutsch ist aber noch nicht darunter. Wer sich nicht vor Englisch und ein paar Menüs scheut, findet hier eine hervorragende Open Source Lösung zum Sichern seiner Festplatten.

PartedMagic


PartedMagic ist eine Systemrettungs-CD, deren Schwerpunkt bei Partitionierung, Wiederherstellung und Sicherung von Daten liegt. Um vollständig im RAM zu laufen, werden mindestens 312 MB RAM vorausgesetzt. Der Live Modus mit CD lässt sich aber auch schon mit weniger als 175 MB RAM direkt in eine LXDE Desktopumgebung starten.
Läuft PartedMagic im Hauptspeicher ist die Reaktionszeit aller Programme naturgemäß hervorragend. Dabei bietet PM eine Plethora an Freier Software, die Systeminformationen und Sensordaten ausliest, Daten versucht wiederherzustellen oder dauerhaft zu löschen, die Festplatte zu partitionieren und mit Hilfe des integrierten und weiter oben vorgestellten Clonezilla auch die Möglichkeit hat ganze Festplatten zu klonen.
Des weiteren existiert noch Truecrypt, ein Programm zum Verschlüsseln von Ordnern und Festplatten, welches zwar Freie Software ist, auf Grund der besonderen Lizenz aber nicht bei Debian und Ubuntu integriert ist.
Ebenfalls interessant: Im Bootmenü der Live CD findet sich unter Extras auch SuperGrubDisk oder PlopBootManager.


Dabei bietet PartedMagic noch eine komplette grafische Desktopumgebung mit Browser, Dateimanager, Musikprogramm, Bildbetrachter, Konfigurationswerkzeuge, eine deutsche Sprachumgebung und noch viel mehr.

SystemRescueCD


Ebenfalls als Rettungs-CD konzipiert basiert SystemRescueCD auf Gentoo Linux. Diese stellt ebenso wie PartedMagic eine Reihe von Systemwerkzeugen zur Verfügung um seine Daten bei einem eventuell Schaden zu sichern, die Festplatte neu zu partitionieren oder mittels clamav nach Viren zu durchsuchen.
Eine Übersicht über alle Programme gibt es hier.
Hervorzuheben ist, dass die Dokumentation von SystemRescueCD in Deutsch ist. Gegenüber der PartedMagic CD fehlen aber Clonezilla, SuperGrubDisk oder PlopBootManager, auf die ich für eine Rettungs-CD nicht verzichten mag.


Optisch gefällt mir PartedMagic besser als die SystemRescueCD, aber das soll nicht wirklich ein ausschlaggebendes Kriterium für eine Rettungs-CD sein.

Fazit

Clonezilla ist eine hervorragende Anwendung, wenn es um das Klonen der eigenen Daten geht. Wer gerne sein Linux komplett sichert, auf externen Festplatten abspeichert und jederzeit genauso einfach wiederherstellen möchte, greift zu Clonezilla.

Soll es mehr sein und benötigt man weitere Linuxwerkzeuge zum Modifizieren, Löschen, Wiederherstellen seiner Daten, empfehle ich PartedMagic, das idealerweise schon Clonezilla integriert hat.
Ich konnte die SystemRescueCD zu wenig Testen um ein Urteil fällen zu können. Auf den ersten Blick habe ich keinen Grund gesehen, warum man nicht auch PartedMagic nehmen könnte, vor allem weil hier schon Clonezilla integriert wurde.
Nicht zu vergessen, es gibt natürlich auch noch Grml, dass sich ebenfalls dem Ziel der Datensicherung verschrieben hat.

Keep it simple

...oder wie meine Backup Strategie aussieht. Ich hatte vor wenigen Wochen ein Erlebnis, was mich einerseits den vor Jahren vollzogenen Umstieg auf Linux nicht bereuen ließ und andererseits daran erinnerte, dass scheinbar unkomplizierte Lösungen proprietärer Anbieter manchmal auch das Gegenteil bewirken können.
Mein Vater ist das, was man wohl einen vorbildlichen Windows-Nutzer nennen würde. Er informiert sich regelmäßig über nützliche Shareware, kümmert sich um Antivirenprogramme und den Schutz seines PCs und kauft Programme, die ihm gefallen. Natürlich hat mein Vater auch seine eigene Philosophie was ein Betriebssystem leisten soll und für ihn ist es eine Selbstverständlichkeit, dass er Hilfe von den Firmen und Personen erhält deren Produkte er kauft.
Bei Backups geht er keine Kompromisse ein. Die Systemfestplatte wird durch eine externe Lösung komplett gespiegelt und das Image auf einer weiteren USB Festplatte sicher verwahrt.
Als er mir irgendwann erzählte, er musste wieder einmal ein paar Einträge in der Registry löschen, wurde ich hellhörig. Sein Backup Programm, Acronis True Image Home, ließ sich unter Windows 7 nicht wieder vollständig entfernen. Die native Fähigkeit von Windows ein Systembackup zu machen wurde nicht wiederhergestellt.
Kurze Zeit später schickte er mir eine Email des Supports, der in Deutsch antwortete, aber auf eine englische Seite von Acronis verlinkte, auf der die Lösung des Problems erklärt wurde.
Acronis forderte seine Kunden auf ein weiteres Hilfsprogramm herunterzuladen und auszuführen, das natürlich ebenfalls komplett in Englisch war. Natürlich darf man annehmen, dass damit das Problem gelöst worden wäre, aber der Ursprungszustand war immer noch nicht hergestellt, denn diverse Einträge in der Registry waren weiterhin vorhanden.
Auch im Jahr 2011 haben es Windows-Nutzer weiterhin schwer Herr über das eigene Betriebssystem zu sein. Man ist vollkommen auf das Wohlwollen von Windows und der externen Softwarehersteller angewiesen. Gerade elementare Prozesse wie Deinstallation sind hinter einem Schleier versteckt.
Wozu Registryeintrag xy auch nach der Deinstallation noch gut sein sollte, erfährt man nicht. Vielmehr entstehen deswegen Programme wie Revo Uninstaller, so lässt sich natürlich auch Umsatz generieren.
Ich habe mir deshalb angewöhnt gerade bei so wichtigen Aufgaben wie Backups, es so einfach wie möglich zu handhaben. Ich unterteile die Daten in verschiedene Klassen von "Wichtigkeit".

  • Daten, auf die ich nicht verzichten kann oder will
    Diese sichere ich regelmäßig, wenn sich etwas geändert hat, mit Dropbox oder Ubuntu One. Entweder ich speichere sie direkt in den entsprechenden Ordner und sie werden automatisch mit der "Cloud" synchronisiert oder ich komprimiere alles und verschiebe in regelmäßigen Abständen alles manuell.
  • Daten, die wichtig sind, aber nicht täglich gesichert werden müssen
    Alles andere, was wichtig ist aber nicht unersetzlich, landet bei mir auf externen Festplatten oder einem Online Datenspeicher wie z.B Strato HiDrive. Hier bevorzuge ich ebenfalls die händische Methode.
    Damit ich mir nicht merken muss, welche Daten erneuert wurden oder nicht, benutze ich Programme wie Unison oder rsync. Damit lassen sich komplette Backup-Verzeichnisse spielend leicht aktuell halten.
    Mein Lieblingsbefehl:
    rsync -avze ssh --delete 192.168.0.200:/home/apo/wichtig /home/apo/backup
    Hier wird das Verzeichnis wichtig auf 192.168.0.200 mit dem lokalen Backup-Verzeichnis über SSH synchronisiert und nicht mehr entfernt existierende Dateien auf der lokalen Seite gelöscht.
    Um nicht zu riskieren ungewollt Daten lokal zu löschen, hänge ich immer vorher noch einmal --dry-run an den Befehl und entscheide mich dann, ob ich mit dem Löschen fortfahren will oder nicht.
  • Daten, die ich gebrauchen kann, aber die nicht kritisch sind
    Zum Testen und Ausprobieren sichere ich ganze Installationen komplett mit der hervorragenden Backuplösung Clonezilla. Sie ist vollständig Open Source, bringt aber die gleichen Fähigkeiten wie bekannte proprietäre und kostenpflichtige Lösungen wie Norton Ghost oder Acronis True Image mit.

Ich denke, für die meisten Sterblichen genügt es die Daten regelmäßig per Hand mit einer der vorgestellten Lösungen zu sichern. Natürlich lässt sich das ein oder andere auch mit einem Cron Job automatisieren. Besser ist jedoch ein Backup bewusst und regelmäßig manuell vorzunehmen. Dabei helfen diverse Clouddienste schon heute ungemein.

Peppermint OS in den Wolken

Heute ein kurzer Überblick und Kommentar zu Peppermint OS, einer auf Ubuntu basierenden Linuxdistribution. Der Hauptentwickler von Peppermint OS ist auch gleichzeitig der Verantwortliche für den LXDE-Ableger von LinuxMint, weswegen weder der Name noch die Wahl von LXDE als Desktopumgebung verwundern. Technisch gesehen ist Peppermint sogar ein Fork von Lubuntu, einem weiteren Ubuntu Derivat.


Im Grunde genommen unterscheidet sich das optische Auftreten gar nicht so sehr von meiner Debian-Sid-Installation auf dem Dell Laptop mit Openbox und Lxpanel. LXDE ist auf jeden Fall eine gute Wahl, um die Distribution schnell und ansprechbar zu machen.
Wo liegt nun der Vorteil von Peppermint gegenüber Ubuntu, LinuxMint und jeder anderen Distribution, die auf LXDE setzt?
Peppermints Motto ist die Cloud oder anders ausgedrückt, der Schwerpunkt liegt bei Anwendungen, die nicht auf dem Rechner des Nutzers ausgeführt werden, sondern irgendwo auf einem Internetserver.
Interessant finde ich, dass Peppermint hier gezielt Prism, eine Technologie von Mozilla, einsetzt. Damit lassen sich webbasierte Anwendungen vom Browser trennen und separat auf dem Desktop ausführen. Das macht die Anwendung unabhängiger von bestimmten Browserbugs, ermöglicht aber auch, dass z.B. die mailto: Funktion innerhalb des Browsers nun auch bei webbasierten Diensten wie Google Mail genauso behandelt wird wie bei herkömmlichen Desktopprogrammen.
Es verwundert nicht, dass bekannte Clouddienste oder anders genannt SaaS (Software as a Service) von Google bei Peppermint auftauchen. Google Docs, Google Calendar irgendwann stolpert wohl jeder Mal darüber.
Ein paar weitere Highlights sind Hulu, Fernsehprogramme im Internet, aber leider nur auf Amerika beschränkt. Ebenfalls einen Blick wert ist Seesmic, ein Werkzeug um verschiedenste Soziale Netzwerke direkt vom Desktop oder Mobiltelefonen steuern zu können.
Peppermint bezeichnet sich selbst als leichtgewichtige Distribution und nennt als Mindestvoraussetzung 192 MB RAM. Damit lässt sich tatsächlich die meiste Hardware in Betrieb nehmen, für die wirklich alten Rechner gibt es aber noch genügsamere Alternativen.
Ich persönlich halte die Idee, Cloudanwendungen in den Vordergrund zu stellen, für sehr gut, auch wenn ich persönlich noch nicht jede existierende Anwendung dafür gebrauchen kann.
Ich denke in Zukunft wird Internet-TV eine immer größere Rolle spielen und es wird nur eine Frage der Zeit sein bis Internetverbindung und Angebot so weit fortgeschritten sind, dass klassische Fernseher praktisch überflüssig werden.
Es ist einfach bequemer seine Daten immer und überall verfügbar zu haben. Deswegen werden Dienste für Kalenderapplikationen, Büro, Musik, Video und Onlinespeicherung immer gefragter werden und irgendwann selbstverständlich sein.
Ich glaube, die Frage nach Datenschutzproblemen könnte in Zukunft dadurch behoben werden, dass der einzelne Nutzer irgendwann so mächtig sein wird wie heute ein ganzes Rechenzentrum. Was spricht dagegen, dass irgendwann Speicherkapazität und Internetgeschwindigkeit so groß sein werden, dass private Haushalte ihre Daten spielend leicht selbst global synchron halten können?
Doch bis zu diesem dezentralen Informationszeitalter werden noch ein paar Jahre vergehen. Ich persönlich möchte Dienste wie Dropbox heute nicht mehr missen. Solange es die Möglichkeit gibt sensible Daten zu verschlüsseln, habe ich auch kein Problem damit.
Mein Fazit zu Peppermint OS: Wer Ubuntu oder Lubuntu gut findet und schon heute praktisch alles nur noch in den Wolken macht, sollte sich auf jeden Fall Peppermint OS ansehen.
Wer hier und da nur seine Daten im Internet synchronisiert und auch kein Problem hat, das über den Browser zu machen, wird wahrscheinlich nichts verpassen.
Es bleibt auf jeden Fall spannend welche Technologien in Zukunft Internet und Desktop eins werden lassen.

charm: Mein charmanter Blogging Client

Zuerst die schlechte Nachricht. Charm lässt sich seit gestern nicht mehr über Debian Unstable installieren, wobei ich daran wohl nicht ganz unschuldig bin. 🙄 Dazu später mehr.
Vermutlich werden die Versionen aus testing und stable automatisch mit der Zeit aus den Repositorien entfernt. Das sollte trotzdem niemanden davon abhalten sich charm zu installieren, denn charm ist winzig klein, schnell und durch seine Implementierung in Python auch nicht zwangsläufig an ein Betriebssystem gebunden.
Alles was man braucht ist Python in der Version >=2.5 und charm. Es genügt die tar.gz Datei in einen Ordner der Wahl zu entpacken und charm mit
python charm
zu starten.

Warum gerade charm zum Bloggen nutzen?

Ja, es gibt noch weitere Blogging Clients für Linux da draußen. Was charm besonders macht, ist seine Fähigkeit alle Funktionen als Kommandozeilenprogramm auszuführen. Keine grafische Oberfläche ist notwendig.
Charm lässt sich entweder durch ein interaktives Menü textbasiert steuern oder auch direkt durch die Übergabe von Parametern zum automatischen Erstellen von Blogeinträgen einsetzen.
Selbst auf dem ältesten Rechner mit einer Python-Installation lassen sich so Informationen an sein Lieblingsblog übertragen.
Charm wurde ursprünglich als Client für das Livejournal Blog entworfen, unterstützt mittlerweile aber auch ATOM oder Metaweb (WordPress!) APIs.
Wer WordPress kennt hat über die Jahre sicherlich auch festgestellt, dass diese hervorragende Open Source Sofware mit jeder Veröffentlichung umfangreicher, vielseitiger und intelligenter wurde.
Leider kann es selbst auf leistungsfähigen Rechnern mit schnellen Browsern vorkommen, dass WordPress sich beim Darstellen der Webseiten viel Zeit lässt, was vor allem an einem mittlerweile überschäumenden Einsatz von JavaScript und der großen Komplexität der Software liegen mag.
Was für einen Dual Core Rechner schon ärgerlich sein kann, wirkt sich auf einem 10 Jahre alten Laptop nicht positiver aus.
Der größte Vorteil von charm: Man kann seinen Editor zum Bloggen selbst wählen. Zum Beispiel benutze ich gerade Leafpad, könnte aber genauso gut auch vim, emacs, nano oder gedit zum Editieren auswählen.
Zum Ausbessern von Fehlern eignet sich niemand besser als charm. Kein Warten auf das Starten des Browsers, das Einloggen in sein WordPress-Blog, das Suchen nach dem Artikel und erneutes Warten bis sich der WordPress-Editor aufgebaut hat.

Wie lässt sich charm bedienen?

Als erstes muss die versteckte Datei .charmrc im Homeverzeichnis angelegt werden. Dort genügt es folgendes einzutragen.

metaweb = Nutzer Passwort http://www.meinlinuxblog.de/blog/xmlrpc.php
editor = leafpad

Für Nutzer und Passwort müssen selbstverständlich die eigenen Informationen stehen und die Adresse des WordPress-Blogs bzw. zur Datei xmlrpc.php.
Nachdem Start von charm auf der Konsole erscheint ein textbasiertes Menü in Englisch, welches einem die Möglichkeit bietet neue Einträge zu posten [p], bestehende zu editieren [e] oder charm wieder zu verlassen [q].
Mit der Option [p] erscheint ein weiteres Untermenü, wo man mit [e] und dem voreingestellten Editor sofort losschreiben kann.
Die Optionen [s], [c], [k] ändern den Titel des Artikels, die Kategorien und die Schlagwörter.
Im Regelfall genügt danach nur noch das Abspeichern des Textes im Editor und die Option [u], womit der Blogeintrag abgeschickt wird.
Das Editieren ist genauso leicht. Nach der Auswahl im Hauptmenü muss noch die Anzahl der Einträge angegeben werden, die von charm abgerufen werden sollen. Danach kann man durch Eingabe der Zahl vor dem Post den Artikel zum Editieren auswählen.

Charm bietet noch weitere Möglichkeiten wie Rechtschreibüberprüfung oder das Bearbeiten des Textes mit Filtern, um wiederkehrende Prozesse beim Bloggen zu vereinfachen. Speziell für das Livejournal Blog gibt es noch mehr Funktionen.
Mir persönlich genügten schon die soeben vorgestellten. Doch auch ein paar Schwächen von charm will ich nicht verschweigen, womit wir zu meinem Eingangs erwähnten Eingeständnis kommen, dass ich nicht ganz unschuldig bin, dass charm (zumindest vorläufig) aus Debian entfernt wurde.

Charm Bugs

Charm wurde ursprünglich für Livejournal und für englischsprachige Bediener entwickelt. Da das Menü nicht sehr kompliziert ist, lässt sich letzteres leicht verschmerzen.
Problematisch wird es beim Bloggen mit Sonderzeichen wie z.B. deutschen Umlauten. Hier scheint charm das Encoding der Texte nicht immer richtig zu erkennen. Da sowohl WordPress standardmäßig mit UTF-8 arbeitet und auch Linux diesen Standard seit Jahren favorisiert, hätte ich gehofft, dass es hier weniger Probleme gibt.
Scheinbar gibt es den Bug schon seit Jahren in verschiedenen Formen, was zumindest auf der Livejournal Seite von Lydia Leong, der Entwicklerin von charm, nachzulesen ist.
Des weiteren sollte man vermeiden eine wiederhergestelle Session ohne Abspeichern zu verlassen. Charm löscht daraufhin die Originalvorlage, was ziemlich ärgerlich ist, wenn man dieses "Feature" nicht kennt.
Ich habe daraufhin meine Erfahrungen mit dem Programm reportbug an Debian gemeldet und konnte zumindest für das Encoding-Problem schon eine Lösung finden. Bug #613036
Für das Löschen und ein verwandtes Problem erstellte ich Bug #616427 und Bug #616430
Soweit so gut, dachte ich, der Paketverwalter hatte sich auch dem ersten Problem schon angenommen und den Bug an "Upstream" weitergeleitet. Doch gestern musste ich leider erfahren, dass der Paketverwalter keinen der Entwickler erreichen konnte und selbst das Programm nicht ändern kann.
In so einem Fall kann man beantragen, dass das Paket aus den Debian-Repositorien gelöscht wird, was auch getan wurde. Hätte ich nur geschwiegen. 🙁
Wirklich schade. Ich bin mir nicht sicher, ob versucht wurde Lydia Leong direkt per Email zu erreichen, denn die offizielle Seite von charm bei Sourceforge scheint tatsächlich äußerst selten gelesen zu werden.
Tja, das ist eben auch Open Source. Sobald ich mehr über die anderen Probleme herausfinde, kann ich sie vielleicht selbst lösen und erreichen, dass charm erneut in Debian aufgenommen wird. Bis dahin empfehle ich trotzdem den Download der Originalversion aber mit dem Hinweis die Bugreports noch einmal zu lesen.
Auch mit diesen Schwächen bleibt charm für mich die Nr.1 zum Bloggen.