Debian konfigurieren – Der leichte Weg

Viele auf Debian basierende Distributionen werben damit, dass proprietäre Treiber und Codecs schon automatisch nach der Installation funktionieren, alle wichtigen Anwendungen vorhanden sind und Compiz aus allen Ecken blinkt.
Doch dieses "Ich-habe-alles-was-ich-brauche" Gefühl lässt sich auch mit dem Original in wenigen Schritten nach einer Installation erreichen. Denn wer sagt denn, was eigentlich die "wichtigen" Programme sind und wer braucht wirklich jeden proprietären Codec um einen Film abzuspielen? Manchmal genügt es auch mit weniger als der kompletten Gnome Desktopumgebung Emails abzurufen oder im Internet zu surfen.
Ich mache einfach bei meinem letzten Beitrag weiter und zeige, welche Programme und Einstellungen mir nach einer minimalen Debian-Netzinstallation mit dem Paket gnome-core noch wichtig sind.
Im folgenden nutze ich aptitude zum Installieren, aber jeder ist frei auch auf apt-get oder das grafische Synaptic zum Installieren zurückzugreifen. Solange mein PC noch keine Befehle per Stimme entgegen nimmt, ist das für mich erst einmal der schnellste Weg zum Konfigurieren. 😉
Meine /etc/apt/sources.list:

deb http://ftp.de.debian.org/debian testing main contrib non-free
deb-src http://ftp.de.debian.org/debian/ testing main
deb http://www.deb-multimedia.org testing main non-free

Nvidia Treiber

Am einfachsten ist es das vorgefertigte Modul zu installieren, welches mit dem Testing Kernel, momentan noch 2.6.32, mitgeliefert wird.

aptitude install nvidia-kernel${VERSION}-$(uname -r)
aptitude install nvidia-glx${VERSION}
aptitude install nvidia-xconfig
aptitude install nvidia-settings

Mit dem Programm nvidia-xconfig lässt sich eine neue Konfigurationsdatei für den X Server automatisch erzeugen. Bei mir genügte es nvidia-xconfig im Terminal auszuführen und X danach mit invoke-rc.d gdm3 restart in der Konsole neu zu starten. Unter Systemverwaltung lassen sich dann mit Hilfe von nvidia-settings weitere Einstellungen vornehmen.
Ergänzung 01.10.2011: Debian Testing entwickelt sich fortlaufend weiter. Am leichtesten lassen sich die Treiber nun mit dem Paket nvidia-kernel-dkms installieren. Der Rest gilt auch weiterhin.
Es gibt noch drei andere Möglichkeiten den Nvidia Treiber zu installieren, doch ich denke, es ist am einfachsten das vorgefertigte Modul zu nutzen, welches sich auf die gleiche Weise auch mit neueren Kerneln verwalten lässt.

Multimedia

Viel Aufhebens wird oft um fehlende Codecs zum Abspielen von Filmen oder Audiodateien gemacht. Doch wie schwierig oder notwendig ist es diese nach zu installieren? Wer deb-multimedia.org in seinen Paketquellen eingetragen hat, hat dieses Problem oft schon mit der Installation von mplayer gelöst und vlc ist sicher auch eine gute Alternative. Ist man tatsächlich auf Quicktime, RealVideo, Windows Media 9 oder Flash angewiesen, muss nur noch w32codecs und flashplugin-nonfree installiert werden.

Gnome anpassen

Ich ziehe bei Debian eine minimale gnome-core Installation der kompletten Desktopumgebung vor und gehe lieber vom Kleinen zum Großen. Ich brauchte zusätzlich nur noch diese Pakete:

system-config-printer (Drucker einrichten mit Cups und Gnome)
seahorse und seahorse-plugins (Verschlüsselung mit GnuPG einrichten und Nautilus um diese Funktion erweitern)
gnome-system-tools (Grafische Werkzeuge zur Administration von Linuxsystemen)

Desktop gestalten

Das ist der Punkt, der oft am längsten dauert, meist nur aus dem Grund, weil es schwer fällt sich zu entscheiden. Der Standarddesktop von Debian und Gnome ist, neutral ausgedrückt, ziemlich schlicht. Am besten würden mir mehrere Debian-Pakete gefallen, welche einfach die am besten bewerteten Gtk2-Themen, Icons und Hintergründe installieren und man danach nur noch aus diesen wählen muss.
Linux Mint Debian hat sich die Mühe gemacht ein eigenes Design zu stemmen, doch warum in die Ferne schweifen, wenn es gute Designs z.B. schon auf gnome-look.org gibt.
Meine jetziges Design setzt sich so zusammen:
gtk2 Thema: Orta
Icons: Faenza
Hintergrund: Wechselt zu häufig, dank dem großen Angebot.

Compiz und AWN Dock installieren

aptitude install compiz compiz-gnome compizconfig-settings-manager avant-window-navigator

Danach lässt sich Compiz wie gewohnt unter System->Einstellungen verwalten. Im Gegensatz zu Ubuntu gibt es zwar kein Extramenü unter Einstellungen->Erscheinungsbild, um ein paar Voreinstellungen für Compiz zu aktivieren. Die wichtigsten Einstellungen lassen sich aber auch bequem mit dem CompizConfig-Einstellungs-Manager vornehmen.

Der Rest

Das waren für mich die wichtigsten Punkte nach der Debian Netzinstallation mit gnome-core. Der Rest beschränkt sich auf das Installieren von Einzelanwendungen. Ob man lieber Gimp, Transmission, Gwibber, Shotwell usw. installieren möchte oder nicht, ist wie das Design Geschmackssache.
Mir fällt im Moment nichts mehr ein, was ich gegenüber einer Ubuntu-Installation vermisst habe. Es funktionierte einfach. Das ist sicherlich nicht für jeden Linuxbeginner der Königsweg. Für mich war es aber eine gute Erinnerung, dass Debian zwar Kanten und Ecken hat, diese sich aber leichter abrunden lassen als andere oft behaupten.

Das Multi-Boot Projekt: Manuelle Partitionierung mit Debian

Der Monat April steht im Zeichen des Multi-Boot Projektes. Nach fünf Jahren mit Ubuntu auf dem Hauptrechner und den anstehenden großen Umwälzungen im Desktopbereich, Stichwort Gnome 3 versus Unity, wollte ich wieder etwas Neues ausprobieren.
Da Ubuntu 11.04 erst Ende April erscheint, nutze ich die Zeit, und beginne mit der schon vorgestellten Installation von Linux Mint Debian auf einem verschlüsselten Logical Volume.
Um überhaupt die Möglichkeit zu haben Linux Mint Debian zu verschlüsseln, greife ich auf die Netzinstallation von Debian Squeeze mit dem Debian-Installer zurück. Leider ist die Partitionierung nicht mehr ganz so einfach wie bei meinem ersten Test auf dem Inspiron 4000, da ich mir für das Multibootsystem und meine 500 GB große Festplatte folgendes überlegt habe.

Primäre Partition sda1: /boot 256 MB ext2

Um das verschlüsselte Volume mit der Root-Partition öffnen zu können, muss es eine unverschlüsselte Boot-Partition geben.

Primäre Partition sda2: /data 430 GB ext4

Die Datenpartition, auf der alle Daten zwischen den verschiedenen Distributionen ausgetauscht werden. Wenn man möchte, kann man diese einzelne Partition später immer noch ganz einfach verschlüsseln.

Logische Partition sda5: LVM auf einem verschlüsselten Volume mit dm_crypt

Darin enthalten sind drei logische Volumes, ein 6,5 GB großes Swap, 10 GB root und 12,5 GB home Volume.
Die restlichen ca. 40 GB sind freier Speicher, den sich später Ubuntu 11.04 und eine weitere Distro teilen werden.
Leider bietet der Debian-Installer keine automatisierte Vorlage für ein solches Schema an und es besteht bei der manuellen Partitionierung schnell die Gefahr verschlüsselte Volumes auf LVM einzurichten, die später beim Booten alle einzeln entsperrt werden müssen.
Die wichtigsten Schritte bei der manuellen Partitionierung habe ich aus diesem Grund in Qemu noch mal nachgestellt, deswegen nicht von den Zahlenwerten für den Speicher verwirren lassen. Spätestens jetzt sollte von allen wichtigen Daten ein Backup gemacht worden sein. 😉

Nachdem man sich für die manuelle Partitionierung entschieden hat, wird der Freie Speicher ausgewählt und /boot und /data als primäre Partitionen angelegt. Für /boot nutzt Debian bei der geführten Installation immer ext2, weshalb ich hier die gleiche Einstellung gewählt habe.
Der reservierte Speicher kann meiner Meinung nach auf 1% verkleinert werden, da ich 5% bei heutigen Festplattengrößen für Verschwendung halte. Die Boot-Markierung (Boot Flag) sollte auf EIN stehen.

Als nächstes wird die logische Partition Nr. 5 angelegt. Anstatt bei "Benutzung als" ein Dateisystem auszuwählen, muss man hier "pysikalisches Volume für Verschlüsselung" wählen und das Ganze anlegen. Danach wählt man "Verschlüsselte Datenträger konfigurieren", selektiert die crypto Partition und gibt nach dem Fertigstellen das Passwort zum Entschlüsseln der Partition ein, womit der Stand wie auf dem nächsten Bild sein sollte.
Einschränkung hier: Primäre Partition 2 muss natürlich auf /data eingebunden sein und nicht auf /. Das Dateisystem für das verschlüsselte Volume lässt sich später beim Anlegen der Logical Volumes noch ändern.


Als nächstes geht es daran innerhalb des verschlüsselten physikalischen Volumes eine Volume Gruppe anzulegen (hierzu verwendet Debian bei der geführten Verschlüsselung den Rechnernamen, man kann sich natürlich auch etwas Eigenes ausdenken) und wiederum innerhalb dieser Gruppe drei logische Volumes root, swap und home mit dem jeweiligen Dateisystem und der festgelegten Größe. Dies wird erreicht, indem "Logical Volume Manager konfigurieren" ausgewählt wird, wonach man das Menü auf dem nachfolgenden Bild erreicht, wo die oben beschriebene Gruppe und die logischen Volumes angelegt werden.


Nach diesem Schritt gilt es als letztes nur noch die Einbindungspunkte für /root, /home und die Swap-Partition festzulegen. Dazu muss man sich wieder im Hauptmenü befinden und die einzelnen logischen Volumes bearbeiten. Die für Linux Mint Debian endgültige Partitionsstruktur sieht dann wie folgt aus.


Ich hoffe, damit habe ich auch für mich beim nächsten Mal die größten Stolperfallen ausgeräumt. Weicht man von der geführten Partitionierung mit Verschlüsselung ab, sind sehr viele Menüs durchzuarbeiten. Leider ist die grafische Variante nicht einfacher, da sie 1:1 auf den Optionen der menügesteuerten Partitionierung aufbaut.
Die Frage ist natürlich auch, muss es denn unbedingt so kompliziert sein und geht es nicht auch einfacher? Wem Verschlüsselung nicht wichtig ist, kann sich auch drei primäre Partitionen mit Root-, Swap- und Home-Partition anlegen und dann mit logischen Partitionen weitermachen. Die erste logische Partition wäre dann die Datenpartition und die zweite die Root-Partition für Ubuntu, die dritte für "Lieblingsdistro XY" usw.
Alle weiteren Distributionen greifen dann auf die primäre Swap-Partition zurück, die bei meiner gewählten, verschlüsselten Partitionierung nicht von mehreren Systemen angesprochen werden kann.
Das Ganze soll die Möglichkeiten einer manuellen Partitionierung mit und ohne Verschlüsselung demonstrieren, wobei ich ersteres insbesondere für Laptops oder Netbooks immer für sinnvoll halte.
Der Rest der Installation verlief übrigens reibungslos und genauso wie bei der letzten Installation von LMDE. Demnächst wieder mehr Schockierendes. 🙂

Ressourcen für freie Bilder, Filme und Musik

Es muss nicht immer der neueste Hollywood-Streifen oder der angesagteste Popsong sein. Obwohl ich denke, dass Plattformen wie youtube Künstlern vor allem eine Möglichkeit bieten sich zu präsentieren, Aufmerksamkeit zu erhalten und für ihr Produkt zu werben, entsteht jedoch schnell das Problem, dass eigenes kreatives Schaffen von anderen verwendet wird, ohne dass dafür der ursprüngliche Künstler ausreichend belohnt wird.

Hier gibt es leider immer noch kein wirklich befriedigendes Bezahlungsmodell zwischen Rechteinhaber, dem Inhaltsanbieter (youtube) und letztendlich den Nutzern des Angebots. Ich hoffe, es wird in Zukunft vollkommen selbstverständlich sein, dass man zu jeder Zeit ein Musikvideo ansehen und hören kann, ohne dass dies durch eine Nachricht wie "Dieses Video ist in ihrem Land nicht verfügbar" unterbunden wird.
Eine Möglichkeit sich kreativ zu betätigen und dies vollkommen in Einklang mit den Rechten der Künstler zu tun, bieten heute schon die Creative Commons Lizenzen.
Ist man auf der Suche nach freien Bildern, Filmen oder Musik lassen sich am einfachsten Ergebnisse mit einer Suche nach einem bestimmten Begriff und dem Schlagwort "Creative Commons" finden.
Google Image bietet z.B. eine erweiterte Bildersuche, womit sich die Suche auf "Nutzungsrechte" einschränken lässt. Das gleiche Feature existiert für Google Videos leider noch nicht.

Trotzdem lässt sich natürlich im Suchfeld nach Begriffen wie "Creative Commons" oder "by-sa" und ähnlichem suchen und man stößt z.B. auf einen sehr schönen und freien Clip auf vimeo.com, wo es ganz einfach ist freie Videos zu finden.
Wer regelmäßig Firefox mit Ubuntu nutzt, der kann über das Suchfeld direkt "Creative Commons" als Suchmaschine auswählen und nach freien Medien suchen. Um die Urheberschaft von Bildern zurück zu verfolgen, hilft eventuell auch das Addon TinEye Reverse Image Search weiter.
Meine Lieblingsseite für freie Musik ist Jamendo. Sie ist etwas zu sehr mit JavaScript überladen, ansonsten lässt sich nur Gutes über sie sagen.
Weiterhin sehr empfehlenswert ist die Webseite incompetech.com, die ebenfalls freie und kostenlose Musik unter CC-by bereitstellt, die sich ideal zum Untermalen eigener Videos eignet.

Auf Grund ihres Alters gelangen immer mehr Filme auch in die Gemeinfreiheit, was im angloamerikanischen Raum auch als Public Domain bezeichnet wird. Diese Filme können, zumindest in Amerika, uneingeschränkt kopiert und weiterverbreitet werden. Im Gegensatz zum Copyleftprinzip besteht hierbei aber auch die Möglichkeit ein urheberrechtlich geschütztes Werk mit einem gemeinfreien zu kombinieren und dieses wiederum urheberrechtlich zu schützen. Mit Copyleft kann ein solches Verhalten ausgeschlossen werden.

Darüber hinaus bietet Creative Commons meiner Meinung nach auch mehr Sicherheit. Leider ist das Urheberrecht weltweit nicht einheitlich. Selbst ein Film, der in den USA in der Public Domain steht, könnte in Deutschland noch den Urheberschutz genießen, da dieses Recht in Deutschland erst 70 Jahre nach dem Tod des Urhebers endet. Praktisch halte ich die Gefahr gegen Rechte zu verstoßen für sehr gering, insbesondere wenn man selbst diese Filme nicht kommerziell und weiterhin frei auf Plattformen wie youtube.com verbreitet. Auf der absolut sicheren Seite bleibt man aber nur mit einer Lizenz wie der Creative Commons.
Es ist nun ziemlich müßig weitere Webseiten aufzuzählen, die Inhalt unter einer CC Lizenz anbieten, solange es so einfach ist mit den oben genannten Suchmaschinen das Material für ein eigenes Werk zusammen zu suchen. Beachten sollte man aber, dass gefundene Medien tatsächlich einen Vermerk zu einer CC Lizenz haben. Auf flickr.com war das immer der Fall, manch andere Seite stand zwar unter einer CC Lizenz verlinkte aber auf geschützten Content.
Wer noch die richtige Seite sucht, um seine Lieblingsdistribution herunterzuladen oder die passende freie Software, dem kann ich nur linuxtracker.org empfehlen.

Openshot ein Videoeditor für Linux

Ich denke ich habe meinen Videoeditor für Linux gefunden. Natürlich gibt es noch Pitivi oder Kino und noch ein paar andere. Dennoch gefällt mir zur Zeit Openshot am besten und das liegt vor allem an den folgenden Dingen.

  • Openshots Entwicklung ist aktiv und hat eine ausgezeichnete Hilfeseite unter anderem in Deutsch.
  • Alle Formate, die ffmpeg lesen und bearbeiten kann, werden von Openshot unterstützt.
  • Openshot passt sich perfekt in Gnome ein. Filme, Bilder und Audiodateien lassen sich ganz leicht mit Drag und Drop in den Videoeditor ziehen.
  • Im Gegensatz zu Pitivi, welches standardmäßig bei Ubuntu installiert ist, bietet Openshot zahlreiche Effekte und Möglichkeiten für Übergänge. Dazu ist ein Editor zum Erstellen von Titeln mit Vorlagen eingebaut mit der besonderen Option auch 3D animierte Schriftzüge mit Hilfe von Blender zu erstellen.

Letzteres wird aber bei Ubuntu 10.10 nur unterstützt, wenn man sich eine aktuellere Version von Blender, als die in den Repos vorhandene, installiert. Openshot verlangt hier mindestens Blender >=2.5.
Mein erster Eindruck ist, dass man mit Openshot auf einfache Art und Weise kleinere Heimprojekte erstellen kann und dank vielfältiger Exportmöglichkeiten z.B. auch gleich in ein Format für youtube oder vimeo umwandeln lassen kann.
Aktuellere Ubuntu-Pakete für Openshot und Blender gibt es auf Launchpad, wo sie als PPA verfügbar sind.

sudo add-apt-repository ppa:openshot.developers/ppa
sudo add-apt-repository ppa:cheleb/blender-svn
sudo aptitude update
sudo aptitude install blender openshot

Woher man freies Video- und Audiomaterial im Internet für sein erstes Projekt beziehen kann, dazu mehr im nächsten Beitrag.

Komplette Bash Completion für Debian

Sowohl Debian als auch Ubuntu nutzen natürlich die automatische Vervollständigung von Befehlen und Verzeichnissen der Bash, sobald man die TAB-Taste drückt.
In der Standardkonfiguration bietet Ubuntu darüber hinaus aber auch Vervollständigung von Programmoptionen an. Um dieses Feature ebenfalls bei Debian zu aktivieren, muss man folgendes tun.

  • Bash Completion installieren
    aptitude install bash-completion
  • ~/.bashrc und /etc/bash.bashrc ändern
if [ -f /etc/bash_completion ] && ! shopt -oq posix; then
     . /etc/bash_completion
fi

Einfach nach einer ähnlichen Codezeile wie der oberen Ausschau halten und diese mit dem oben stehenden Code ersetzen. Um die automatische Vervollständigung systemweit nutzen zu können, kann der Code auch direkt in der globalen Bash Konfigurationsdatei /etc/bash.bashrc ausgetauscht werden.
Wenn man schon mal dabei ist, kann man auch die # vor dem Schlüsselwort alias entfernen, damit gibt es gleich noch eine weitere nützliche Funktion für die bash hinzu.
Mit alias lassen sich beliebige Bash-Kommandos auf wenige Zeichen abkürzen, was das Tippen auf der Konsole deutlich einfacher macht.
Zur Erinnerung reicht das glaube ich erst einmal. 😉

GNU Screen richtig nutzen

Screen ist für mich eines der wichtigsten Konsolenprogramme. Verbindet man sich mit ssh zu einem Rechner, vermisst man schnell die Fähigkeit einer modernen grafischen Oberfläche zwischen verschiedenen Anwendungen und Fenstern einfach hin- und her zu wechseln. Und wie können ausgeführte Programme in der Konsole auch nach dem Logout weiterlaufen? Hier kommt screen ins Spiel.
Beim Start von screen erscheint eine Nachricht und danach scheint es als ob sich nicht viel geändert hätte. Lediglich die Eingabeaufforderung der Shell blinkt einem entgegen.


Hier lässt sich nun z.B. rtorrent starten und der Bildschirm horizontal mit Strg+A und S teilen. Mit Strg+A und TAB springt man zur nächsten Bildschirmregion und kann dort mit Strg+A und c eine neue Shell öffnen und z.B elinks starten. Dies würde dann meinem schon vorgestellten rtorrent Setup entsprechen und sieht wie folgt aus.


Screen lässt sich aber nicht nur horizontal sondern auch vertikal teilen. Um das rtorrent Fenster vertikal zu teilen und htop anzuzeigen, springt man einfach mit Strg+A und TAB in die obere Hälfte zurück. Dann genügt bei Debian und Ubuntu ein Strg+A und | um den Bildschirm erneut zu teilen.
Anschließend wird der Schritt zum Starten einer neuen Anwendung wiederholt, wiederum Strg+A und TAB um zur nächsten Region zu gelangen, Strg+A und c um die Shell zu öffnen und dann htop eingeben.


Das Spiel lässt sich nun beliebig weiter treiben. Mit Strg+A und d bietet screen eine seiner besten Optionen an, nämlich screen abzutrennen und in den Hintergrund zu schicken. Danach befindet man sich wieder auf der ursprünglichen Konsole, alle in screen ausgeführten Programme laufen aber weiter!
Man könnte sich also problemlos ausloggen, zu Bekannten fahren, von dort sich erneut zu seinem Rechner mit ssh verbinden und danach mit dem Kommando screen -r seine Session wieder aufrufen.
Leider ist die Aufteilung der Anwendungen in verschiedene Regionen dann verschwunden und man müsste von neuem die Einteilung vornehmen. Natürlich lässt sich einfach mit Strg+A und SPACE zwischen den "Fenstern" wechseln. Oder man springt direkt zu einem Fenster indem man Strg+A und 0,1 oder 2 eingibt.
Wäre es nicht besser, man hätte eine Statusleiste, in der die unterschiedlichen Programme mit Namen und Fensterzahl schon angezeigt würden? Wäre es nicht praktischer die Anwendungen schon sofort beim Starten von screen mit auszuführen, ohne den Umweg über das Öffnen einer neuen shell zu gehen?
Der "Trick" ist die im Home Ordner versteckte Datei .screenrc zu erstellen, welche bei mir so aussieht.

hardstatus alwayslastline "%-w[%n %t]%+w%=%H %c Load: %l"
shelltitle '...'
startup_message off
vbell off
blankerprg /home/apo/.scripts/screensaver.sh
idle 300 blanker
#screen -t centerim 0 /home/apo/.scripts/centerim.sh
#screen -t alpine 1 alpine -d 0
#screen -t mc 2 /home/apo/.scripts/mc.sh
screen -t rtorrent 1 rtorrent
screen -t htop 2 htop
#screen -t wyrd 4 wyrd
screen -t elinks 3 /home/apo/.scripts/elinks.sh
#screen -t hnb 8 hnb
screen -t slurm 4 slurm -i eth0
GNU Screen

Aufmerksamen Lesern von KMandlas hervorragendem Linuxblog und Testern seiner Debian Lenny Sandbox Edition fällt hier sicher auf, dass es sich mit geringfügigen Änderungen um seine screenrc handelt. Sie ist übersichtlich und enthält meiner Meinung auch alles was man für die effiziente Benutzung von screen braucht.
Was macht diese Konfigurationsdatei? Zum einen verschwindet die Startnachricht, die man nicht wirklich benötigt. Die visuelle Rückmeldung, wenn sich etwas in den Fenstern getan hat, ist ebenfalls ausgeschaltet. Mit Shelltitle lässt sich der Name einer mit Strg+A und c gestarteten shell festlegen.
Die Zeile blankerprg verweist auf ein Bildschirmschoner-Skript, welches nach 5 Minuten ausgeführt wird, sollte man in der Zwischenzeit keine weiteren Aktionen in screen vorgenommen haben. Im Grunde genommen handelt es sich hier mehr um ein Gimmick, welches bei modernen Monitoren nicht notwendig ist. Ich stelle es ein anderes Mal ausführlicher vor.
Die restlichen Zeilen sind Programme, die ich regelmäßig in meiner Screen Session ausführe. Da ich nicht auf jedem Rechner immer die gleichen benötige, sind manche mit der # kommentiert. Der Aufbau ist simpel

screen -t Titel des Fensters Fensterzahl Name des Programms und Startparameter

Somit wird aus einem langweiligen Terminalfenster ein Fenstermanager für die Konsole. Zwischen den einzelnen Fenstern lässt sich danach wie gewohnt mit Strg+A und Space oder Strg+A und Fensterzahl wechseln.

Wer weitere Vorschläge für das Aussehen der Statuszeile bei screen sucht, findet schon bei Google mit dem Begriff hardstatus und screen viele weitere Ideen. Noch einfacher geht es, wenn man direkt byobu ausprobiert, was nichts anderes als ein verbessertes oder besser verschönertes screen ist.


Screen ist nicht nur für Serveradmins sinnvoll. Auch für alte Computer mit sehr wenig RAM bietet sich screen mit vielen nützlichen Konsolenprogrammen an, womit sich E-Mail schreiben, Browsen, Chatten, Bittorrent und vieles mehr realisieren lässt. Viel Spass beim Ausprobieren!

Mehr Sicherheit mit GnuPG

Ich habe gestern meinen drei Jahre alten öffentlichen PGP Schlüssel widerrufen und mir ein neues Schlüsselpaar erstellt. Um mir in Zukunft zu merken, welche Konsolenbefehle zum Erstellen des Schlüssels und später zum Ver- und Entschlüsseln notwendig sind, hierzu eine kurze Anleitung.
Es gibt mittlerweile viele gute und vor allem ausführliche Anleitungen zu GNU Privacy Guard, darunter z.B.
http://hp.kairaven.de/pgp/gpg/index.html

Ich persönlich benutze GnuPG hauptsächlich zum Signieren meiner Emails und zum Verschlüsseln von Dateien und Dokumenten, die ich mit Dropbox irgendwo in der Cloud ablege. Zum Widerrufen des öffentlichen Schlüssels habe ich Seahorse benutzt, welches man bei Ubuntu unter System->Einstellungen->Passwörter und Verschlüsselung findet.
Auch das Erstellen des Schlüssels und der Export auf einem Schlüsselserver ist damit bequem zu lösen, im Grunde ist Seahorse nur ein Frontend für GnuPG welches die wichtigsten Funktionen bereitstellt.
Doch mit ein paar Befehlen auf der Kommandozeile geht es natürlich auch zu lösen.

Schlüsselpaar erzeugen
gpg --gen-key

Das folgende interaktive Menü ist ziemlich selbsterklärend. Die Voreinstellungen zum Verschlüsselungsalgorithmus sind sinnvoll, weswegen man nur noch Name, Email und Verfallsdatum der Schlüssel angeben muss.

Öffentliche Schlüssel im Schlüsselring auflisten
gpg --list-keys

Den Schlüssel an einen Schlüsselserver schicken
gpg --send-keys Key-ID
gpg --keyserver hkp://keyserver:port --keyserver-options verbose --send-keys Key-ID

Widerrufzertifikat
gpg --gen-revoke Key-ID > Key-ID.revcert.asc

Einmal auf einen Schlüsselserver hochgeladen, lässt sich der öffentliche Schlüssel nicht mehr ohne den eigenen privaten Schlüssel und das Passwort widerrufen. Deshalb sollte man für alle Fälle sofort ein Widerrufzertifikat erstellen und sicher verwahren.

Nach öffentlichen Schlüsseln auf einem Schlüsselserver suchen
gpg --search-keys "Suchstring"

Eine weitere E-Mail Adresse zu einem Schlüssel hinzufügen
gpg --edit-key Key-ID

adduid eingeben, Name wiederholen und neue E-Mail Adresse hinzufügen und danach mit save abspeichern.

Verschlüsseln und signieren einer Datei mit GnuPG
gpg -ser Key-ID datei

Entschlüsseln
gpg -do datei_output datei_verschlüsselt

Verschlüsseln und Entschlüsseln zum Dateimanager Thunar hinzufügen

Ubuntu integriert das Ver- und Entschlüsseln schon im Dateimanager Nautilus. Wer wie ich z.B. Thunar nutzt kann dies im Menü Bearbeiten->Benutzerdefinierte Aktionen einstellen.
Zwei neue Namen für die Aktionen ausdenken und für Verschlüsseln diesen Befehl schreiben:

Verschlüsseln
urxvtcd -e sh -c "gpg -e -r Key-ID %f"

Entschlüsseln
urxvtcd -e sh -c "gpg -o %n.entschlüsselt -d %f"

Der Terminalemulator urxvt lässt sich natürlich durch jeden anderen ersetzen. %f steht für den Dateinamen und Key-ID muss wie in den vorangegangen Beispielen mit der gewünschten Schlüssel-ID ersetzt werden.
GnuPG ist ein sehr nützliches Werkzeug um seine Dateien sicher auf fremden Cloudservern abzulegen oder sichere Emails zu verschicken. Definitiv ein "Must-have" Programm auf jedem Linuxsystem.

Debian tauscht sich mit seinen Derivaten aus

Seit vergangenen Freitag hat Debian ein neues Projekt ins Leben gerufen, damit in Zukunft Verbesserungen in anderen auf Debian basierenden Distributionen einfacher an das Hauptprojekt zurückgegeben werden können.
Mit Debian Derivatives Exchange, kurz DEX, knüpft Debian an sein Zensusprojekt an, um mehr Feedback von den knapp 300 verschiedenen Derivaten zu erhalten. Hierbei wird zwischen in Debian entwickelten Geschmacksrichtungen, "Blends", und separat entwickelten Derivaten wie z.B. Ubuntu unterschieden.
Da es schon schwierig sein kann innerhalb einer Distribution die richtigen Kommunikationswege zu finden, wird dieser Informationsaustausch durch eine mittlerweile fast unüberschaubare Anzahl von weiteren unabhängigen Projekten nicht leichter gemacht.
Wer ist mein Ansprechpartner? Wie kann ich ihn kontaktieren und über was soll sich eigentlich ausgetauscht werden? Wer pflegt den neu entwickelten Code in ein Debian kompatibles Paket ein und wer entscheidet darüber, was "guter" Code ist und was nicht?
Oft unterscheiden sich schon die einzelnen Projektphilosophien stark von einander. Obwohl alle auf die gleiche Softwarebasis setzen, macht sich jeder seine eigenen Gedanken, was eigentlich eine gute Distribution ist, worüber ich auch schon ein paar Gedanken verloren habe.
Was in der Theorie logisch und einfach klingt, lässt sich in der Praxis schwierig umsetzen, da außer dem Interesse für ein Freies Softwareprojekt keine Hierarchie zwischen Debian und den Derivaten existiert.
Wie kommt man nun auf 300 Debian-Derivate? Hierzu führt ein Link auf der DEX Seite zu einem lesenswerten Artikel in Englisch, welcher anschaulich vor Augen führt, in wie viel verschiedenen Distributionen eigentlich Debian steckt.
Obwohl ich nicht voraussehen kann wie erfolgreich DEX sein wird, halte ich doch die Gedanken, die dahinter stecken, für wichtig und langfristig für alle Derivate auch für vorteilhaft. Denn nicht nur für ein einzelnes Stück Software, sondern auch für ganze Distributionen sollte meiner Meinung nach DRY gelten.

Eine Lanze für id Software brechen

Ich war schon immer ein großer Fan der Spieleschmiede id Software. Insbesondere bewundere ich bis heute, dass es für dieses Unternehmen nie ein Problem war, auch einen Linux-Client zu seinen Spielen zu entwickeln.
Das waren nicht irgendwelche Spiele, sondern aus heutiger Sicht wahre Spieleklassiker. Keine 2D-Textkonsolenspiele sondern optisch herausragende und Hardware fordernde 3D-Shooter.
Dabei beließen es die Entwickler nicht nur bei ihren Linux-Clients, sondern sie veröffentlichten den gesamten Quellcode der wichtigen Spielengine in der Regel nach fünf Jahren unter der GPL.
Dies ist auch der Grund, warum heutzutage so viele Quake-Klone existieren, die allesamt durch eine hohe Qualität und neue Feature überzeugen wie z.B. Alien Arena, OpenArena oder Warsow.
Wo wären native Linux Spiele heute, wenn viele andere Spielehersteller diesem Beispiel gefolgt wären? Offensichtlich ist es also keineswegs unmöglich, dass herausragende Spiele auch ihren Weg auf die Linux-Plattform finden. Und genau aus diesem Grund möchte ich mir nur wegen eines optionalen Computerspiels kein weiteres unfreies Betriebssystem zulegen.
Nichtsdestotrotz kann ich damit leben, wenn Hersteller ihr Spiel zuerst einmal unter einer "closed source" Lizenz veröffentlichen. Computerspiele sind optional, weswegen ich hier auch keine Gefahr für freien Informationsaustausch oder das Ende des Informationszeitalters sehe.
Ich erwähnte ja schon, dass ich id Software klasse finde und hier ist ein Spiel, welches es verdient hat vorgestellt zu werden.

DOOM 3

Doom 3 ist mehr als ein Ego-Shooter. Die Bezeichnung "Interaktiver Action-Horror-Film" würde besser zu diesem Titel passen. Vielleicht kann nicht jeder etwas mit der düsteren, beklemmenden Atmosphäre dieses diabolischen Science-Fiction-Klassikers anfangen. Wer sich dennoch darauf einlässt bekommt selbst heute, sieben Jahre nach Veröffentlichung des Spiels, einen guten Eindruck von den Fähigkeiten von id Software.
"Musste man das etwa mit den Händen spielen?" "Das ist ja Babyspielzeug!"
Doom 3 ist tatsächlich schon sieben Jahre alt, wahrhaftig eine Ewigkeit im IT-Zeitalter, doch dafür sah die Grafik damals gar nicht so schlecht aus oder?

Wer Doom 3 gerne mit seiner Lieblingsdistribution spielen möchte, braucht nicht viel zu tun. Zuerst sollte das sogenannte Point Release heruntergeladen werden, eine Datei, die ähnlich aussieht wie doom3-linux-xxx.run.

Danach muss man sie nur noch mit chmod + x doom3-linux-1.3.1.1304.x86.run ausführbar machen und als root oder mit sudo voran

sh doom3-linux-1.3.1.1304.x86.run

ausführen. Die auf den Original-CDs existierenden *.pak Dateien befinden sich in /Setup/Data/base/ und müssen nach /usr/local/games/doom3/base kopiert werden.
Danach lässt sich das Spiel entweder durch Klick auf das Doom-3-Symbol in seinem Anwendungsmenü starten oder direkt als Befehl doom3 im Terminal ausführen.
Die Installation wird gut auf ubuntuusers.de oder holarse-linuxgaming.de beschrieben.
Dort findet sich auch ein guter Tipp, wie man die Bildschirmauflösung von Doom 3 anpassen kann, falls diese nicht direkt unterstützt wird. Für eine 1680x1050 Auflösung muss nur noch einmalig

doom3 +set r_mode -1 +set r_customwidth 1680 +set r_customheight 1050

im Terminal ausgeführt werden.
Spielen unter Linux ist ohne weiteres möglich. Id Software ist der beste Beweis dafür. Bleibt nur noch allen iddqd zu wünschen. 😉

Pläne für ein Multi-Boot-System

Mein Entschluss steht fest. Mit Erscheinen von Ubuntu 11.04 werde ich ein Multi-Boot-System auf meinem Dual Core Rechner einrichten. Nein, ich werde nicht wieder zu Windows zurück wechseln. 😉
Mein erstes Multi-Boot-System entstand ganz am Anfang meiner Linux-"Karriere". Damals steckten viele Lösungen für Open-Source-Virtualisierung noch in den Kinderschuhen oder waren zumindest noch nicht so verbreitet wie das heute der Fall ist. Oft mangelte es auch an Wissen und leistungsfähiger Hardware.
Für viele war und ist der erste Schritt zu Linux ein Dual-Boot-System mit Windows. Natürlich unterstützt Windows bis heute nicht mehrere Betriebssysteme parallel auf einem Computer und auch fremde Dateisysteme lassen sich nicht ohne weiteres lesen oder sogar beschreiben.
Aus diesem Grund testete ich früher schon viele Betriebssysteme parallel und war Linux schon damals dankbar sich so geräuschlos um Multi-Boot-Systeme zu kümmern. Zuletzt waren fünf verschiedene Linuxdistributionen auf einem Rechner installiert, die alle mit Hilfe von GRUB gestartet wurden.
Heutzutage nutze ich weder Windows noch brauche ich zwingend verschiedene Linuxsysteme auf einem Rechner, ein paar alten Laptops sei Dank. 😉 Wenn überhaupt läuft ein weiteres Betriebssystem in Virtualbox oder Qemu.
Der Grund für ein Multi-Boot-System ist also wiedermal die Neugier und ein bisschen Experimentierfreude. Mit Ubuntu 11.04 setzt Ubuntu erneut andere Maßstäbe und favorisiert ab sofort eine eigene Desktopoberfläche namens Unity.
Prinzipiell lässt sich natürlich weiterhin zwischen Unity und Gnome 3 und jeder anderen Desktopumgebung wählen. Es besteht also keine Notwendigkeit Ubuntu den Rücken zu kehren.
Nichtsdestotrotz kommt mit Debian Testing und etwas Mint alias LinuxMintDebian mehr Abwechslung herein und schließlich komplettiert dies auch Debian Squeeze auf dem Toshiba Portégé und Debian Sid auf dem Dell Inspiron Laptop. 🙂
Momentan ist die Idee also LinuxMintDebian als Betriebssystem für alle typischen Desktopanwendungen zu nutzen und Ubuntu 11.04 gezielt für Video- und Audiobearbeitung einzusetzen, ohne dabei auf das schon vorgestellte Ubuntustudio zurückzugreifen.
Das dritte und eventuell vierte Betriebssystem dient dann mehr dem Ausreizen aller Möglichkeiten und ich wollte schon immer mal ein persönlich angepasstes ArchLinux erstellen. 🙂
Schade, dass Ubuntu 11.04 erst Ende April erscheint. 😈