Das Humble Bundle für Android und Linux

...und noch ein paar andere Betriebssysteme. Ihr habt es erst zum zehnten Mal heute und gestern gelesen, deswegen schnell für die Geschichtsschreibung noch Nummer 11 hinterher, da ich mir zumindest vorgenommen habe alle Humble Bundles in diesem Blog zu dokumentieren.
Das Humble Bundle für Android, Windows, MacOS und Linux hat folgende Spiele zu bieten:

Das Besondere: Android ist als vierte unterstützte Plattform mit von der Partie, was das Bundle noch attraktiver als sonst macht. Wie bei den Vorgängern bestimmt ihr den Kaufpreis! Er lässt sich wie gehabt zwischen Entwicklern, gemeinnützigen Projekten und den Organisatoren aufteilen.
OSMOS und World of Goo kannte ich schon. Das letztere Spiel hatte ich vor fast genau einem Jahr mit zwei weiteren interessanten Projekten vorgestellt. Es ist wirklich kurzweilig und bietet eine ebenso unterhaltsame Grafik.
Anomaly und EDGE werde ich mir später noch einmal ansehen. Zumindest Anomaly scheint eine interessante Mischung aus Strategie und Actionspiel zu sein und auch optisch wird etwas geboten, wie das folgende Promovideo zeigt. Achja, auf der offiziellen Seite sind noch 3 Knöpfe des Smartphones unausgefüllt. Möglicherweise gibt es also im Verlauf der Aktion noch einen Spielenachschlag. 😉

Subjektive Wahrnehmung von Nachrichten

Zuerst flattern sie per E-Mail herein, dann lese ich sie per Feedreader auf den größeren Nachrichtenportalen und schließlich gibt es das Ganze mehr oder weniger kondensiert noch einmal bei einem Blog als Nachschlag.
Ich denke, es ist eine der größten Herausforderungen dieses Jahrhunderts die "wichtigen" und vor allem wahren Informationen aus diesen Einzelmeldungen einmal herausfiltern und all das zum größeren Ganzen in Beziehung setzen zu können. Mir gelingt das leider nicht immer, da die größte Falle jeder Nachricht nicht die Nachricht selbst, sondern das Weglassen von wichtigen Informationen ist. Wer einen Teil der Wahrheit verschweigt, hat noch nicht gelogen, oder? 😉
Zum Glück kommt das bei IT-Meldungen nie vor. Jedoch scheint die gleiche Info bei verschiedenen Menschen unterschiedliche Perzepte auszulösen, um mal mit Fremdwörtern anzugeben.
Was musste ich schon wieder lesen: Debian 7 alias Wheezy wird mit Kernel 3.2 ausgeliefert, worauf ein Kommentator nur lapidar fragte: "Was denken die sich dabei?". Ein Jahr vor der Veröffentlichung der nächsten stabilen Version, gebe es schon keine Updates mehr. Da wird Debian doch schon heute wieder vollkommen unbrauchbar. Tja, hätte er den ganzen Artikel auf heise.de oder gleich den Originalbeitrag des Debianentwicklers Ben Hutchings gelesen, könnte er nun beruhigt aufatmen. Das Debian-Kernelteam ist nämlich offen dafür, Neuerungen späterer Kernelversionen nach 3.2 zurückzuportieren. Also immer ruhig Blut und nicht vergessen, dass es auch die Möglichkeit gibt Debian Stable mit Backports fit zu machen.
Außerdem sollte es beruhigend sein, dass nicht nur Debian, sondern auch Ubuntu an dem 3.2er Kernel langfristig, d.h. bis mindestens 2016, festhalten möchte. Auch für das nächste Ubuntu 12.04 LTS wird es also diesen Kernel geben.
Die Auswirkungen für meine Rechner sind im Moment eher minimal. Auf den älteren Kisten läuft entweder Squeeze mit Kernel 2.6.32 oder gar Sid mit 3.2 schon problemlos, weswegen ich dieser Entscheidung der Entwickler eher gelassen entgegen sehe und mich vielmehr über den langen Support freue.

VNC-Server und Clients: Ein kleiner Überblick

Ich habe mir vor kurzem einen Überblick verschafft, was mir Linux und Debian zum Thema Virtual Network Computing, kurz VNC, bieten können. Insbesondere habe ich mit einem älteren Laptop der Klasse Pentium II, 128 MB und einem Core Duo mit 4 GB RAM experimentiert.
Interessant fand ich auf den ersten Blick directvnc, ein VNC-Client der sich mit dem Framebuffer zufrieden gibt, um den entfernten Desktop anzuzeigen und dabei auf DirectFB zurückgreift. Als erstes habe ich mich mit dem Core Duo verbunden, wo Vino als VNC-Server mit Debian Testing und Gnome 3 lief.
Die erste Hürde über die man stolpern kann sind die Zugriffsrechte, wenn man directvnc als normaler Benutzer startet. Man benötigt auf jeden Fall die Kontrolle über /dev/tty0 und /dev/mouse/ oder /dev/psaux, ansonsten erhält man einen Fehler wie:

Error opening /dev/tty0
--> Permission denied

Die Rechte lassen sich mit chown temporär ändern. Die dauerhafte und "saubere" Methode scheint aber zu sein, udev Regeln zu erstellen, so dass schon beim Systemstart in die Konsole alles funktioniert. Wenn jemand schon öfter mit directvnc gearbeitet hat und eine noch bessere Lösung für das Problem kennt, immer her damit. 😉
Die Performance von directvnc war ausgezeichnet, selbst auf dem Thinkpad von 1998 konnte ich den großen Rechner problemlos kontrollieren. Leider musste ich bei Vino mit der Einschränkung leben, dass ich die Geometrie der Anzeige nicht an meine 1024x768 Pixel Auflösung anpassen konnte.
Wenn man mehr Kontrolle braucht ist x11vnc kein schlechter VNC-Server, da sich hier zahlreiche Optionen direkt über die Kommandozeile steuern lassen und auch die Anzeige des Desktops ist schnell mit dem Attribut -geometry 1024x768 geändert, wonach mein Gnome 3 Desktop im Framebuffer des Thinkpad 600 vollständig dargestellt wurde.
Außerdem habe ich mir noch tightvncserver angesehen, dessen großer Vorteil die effiziente Datenkodierung ist, mit der sich die Performance bei Verbindungen über das Internet und bei schmaler Bandbreite verbessern lässt. Zum Betrieb ist nicht einmal eine laufende Desktopumgebung notwendig, weswegen sich tightvncserver auch mehr für ein kollaboratives Projekt auf einem entfernten Rechner eignet als für ein Hilfsmittel bei Rechnerproblemen. Der Client als Gegenstück heißt xtightvncviewer.
Wer mit aptitude search vnc nach einer groben Idee zum Thema Virtual Network Computing fahndet, findet auch noch vnc4server und xvnc4viewer, dazu auch noch in Java geschriebene Clients und GTK-Widgets, auf die ich aber noch keinen Blick geworfen habe.
Als grafische Oberfläche für einen VNC-Client gefiel mir bisher Remmina sehr gut, weil man hier auch gleich mehrere Protokolle dank verschiedener Plugins zur Auswahl angeboten bekommt und nicht nur mit VNC sich zu einem entfernten Rechner verbinden kann. Die Gnome 3 Lösung Vinagre ist mir hingegen zu spartanisch.
Mein absoluter Favorit war aber linuxvnc, ein kleiner VNC-Server, der Eingaben und Aktionen in TTY-Konsolen übertragen kann. Perfekt geeignet, wenn man jemanden bei der "Arbeit" in der Konsole beobachten oder einfach nur beim Spielen von Dungeon Crawl Stone Soup zusehen möchte. 🙂
Ich schätze man könnte Tage damit verbringen, über die Vor- und Nachteile der einzelnen Varianten zu berichten. Zum Schluss bleibt aber, dass ein VNC-Client oder Server immer noch ein guter Verwendungszweck für einen alten Computer ist.

mtPaint: Ein Grundlagen-Tutorial mit Lubuntu

Es wird oft über GIMP geredet, wenn es um die Manipulation von Bildern geht. Ohne Frage ich mag GIMP und halte es für ein hervorragendes Programm. Ich denke nur, viele Menschen kommen schon mit sehr viel weniger Funktionen aus. Gerade für Standardaufgaben mit Bildern hat Lubuntu mit mtPaint ein kompaktes, schnelles und vielseitiges Bildbearbeitungsprogramm vorinstalliert, welches nicht nur einige der am häufigsten wiederkehrenden Probleme löst, sondern auch vollkommen anspruchslos an die Hardware ist und bei mir auf einem 10 Jahre alten Laptop noch eine Startzeit von weniger als 2 Sekunden hat.
Mit dem folgenden kleinen Tutorial möchte ich zeigen, wie man einige typische Basisaufgaben mit Hilfe von mtPaint bewältigen kann. Mein Beispiel dreht sich um das Aufnehmen eines Bildschirmfotos, dem Zurechtschneiden des Bildes und der Markierung und Beschriftung von Objekten.
In Lubuntu 11.10 ist das ressourcenschonende scrot zum Aufnehmen von Screenshots voreingestellt. Seine vielfältigen Funktionen und wie man es in ein Openbox-Menü einbindet, hatte ich vor ein paar Monaten vorgestellt.
In der Regel wird durch Drücken der Druck-Taste der gesamte Bildschirm aufgenommen. Durch die Kombination Alt+Druck und ein paar anschließenden Mausbewegungen hat man die Möglichkeit einen Ausschnitt des Bildschirms als Bild festzuhalten. Dieser wird dann standardmäßig im Home Ordner gespeichert.
Wovon kaum jemand Gebrauch macht: mtPaint, Mark Tylers Painting Program, kann ebenfalls Bildschirmfotos schießen. Dazu gibt es drei Möglichkeiten

Ein Bildschirmfoto aufnehmen

  1. Terminalemulator

    In Lubuntu 11.10 das LXTerminal aufrufen und
    mtpaint -seingeben.

  2. Tastaturkürzel

    Die Datei ~/.config/openbox/lubuntu-rc.xml öffnen und nach dem Eintrag für scrot suchen. Erstellt euch danach wie folgt ein Tastenkürzel für STRG+Druck und mtPaint.

    <keybind key="C-Print">
         <action name="Execute">
          <execute>mtpaint -s</execute>
         </action>
    </keybind>
    

    Damit die Bildschirmaufnahme um 5 Sekunden verzögert wird, kann man anstelle von mtpaint -s auch
    sleep 5; mtpaint -s
    schreiben und natürlich je nach Wunsch die Anzahl der Sekunden variieren.

  3. Innerhalb von mtPaint

    Klickt auf Datei -> Neu -> Erzeuge Screenshot

Ein Bildschirmfoto manipulieren

Vorbemerkung: Solltet ihr Probleme mit einem Werkzeug haben, könnt ihr mit der ESC-Taste die Funktion abwählen. Falls ihr einen Schritt rückgängig machen wollt, hilft wie immer STRG+z, STRG+r holt ihn wieder hervor.

Ausgangsbild

Zurechtschneiden

Egal für welche Methode ihr euch entschieden habt, das Bildschirmfoto sollte nun direkt in mtPaint geöffnet sein. Wer nur an einem Vollbild interessiert war, kann jetzt schon zu "Datei -> Speichern als" springen und den gewünschten Dateityp wählen. Anderenfalls könnt ihr jetzt noch einen Teil des Bildes ausschneiden. Dadurch wird die Bilddatei auch kleiner, was Bandbreite spart und Ladezeiten von Webseiten verbessert.
Um das Objekt zu markieren, wählt ihr das Auswählen -Werkzeug. Damit lässt sich z.B ein Rechteck um das mtPaint-Programm ziehen, welches für dieses Beispiel im Fokus stehen soll.
Für mich ging es am schnellsten, wenn man mit dem Auswahl-Werkzeug an der rechten unteren Ecke des Programmfensters beginnt, ein Rechteck beliebiger Größe aufzieht und an der gegenüberliegenden oberen linken Ecke, es auf die perfekte Größe zieht. Hat man die passende Auswahl gefunden, genügt das Drücken der Entf-Taste, um den Bildbereich auszuschneiden.

Details hervorheben

Shutter bietet z.B. die Möglichkeit eine elliptische Auswahl um einen Teilbereich zu ziehen, der dadurch besser visualisiert wird. Mit mtPaint lässt sich das ganz leicht so machen:
Benutzt wieder das Auswahl Werkzeug, umrandet den zu markierenden Bereich und klickt auf Ellipse-Umriss .
Die Strichstärke und die Farbe lässt sich links in der Palettenvorschau verändern. Das rote Quadrat repräsentiert Farbe A (rot), das zweite Quadrat Farbe B (blau), das rote Rechteck das Muster (keines) und der weiße Kreis die Größe und Form des Pinsels und in diesem Fall die Strichstärke unserer Ellipse.

Text schreiben

Mit Hilfe des Textwerkzeuges lässt sich noch ein erläuternder Text schreiben. Für mein Beispiel habe ich als Schriftart "Sans" und Schriftgröße "20" gewählt. Nicht vergessen die "Antialias"-Checkbox für ein besseres Schriftbild zu selektieren (existiert nur bei Bildern im RGB-Format). Bei gedrückter linker Maustaste lässt sich die Textbox verschieben, ein Klick auf die rechte Maustaste fixiert den Text an der Stelle. Dieser Vorgang kann mehrmals wiederholt werden.

Eine gerade Linie ziehen

Schließlich lässt sich noch der Text und das mit der Ellipse umrandete Objekt mit einer geraden Linie verbinden, wozu ihr dieses Werkzeug braucht. Der Vorgang ist selbsterklärend. Anfangs- und Endpunkt bestimmen und mit Hilfe der Palette Farbe und Strichstärke festlegen.

Optional: Bild skalieren

Lässt sich im Menü unter Bild -> Größe der Zeichenfläche ändern einstellen oder mit der Taste Bild nach oben.

Fazit

Sowohl Shutter als auch GIMP hätten das Problem lösen können. Ich denke der Vorteil von mtPaint ist, dass es sich universell auf nahezu jedem Computer, der in den letzten 15 Jahren verkauft wurde, einsetzen lässt. Für eine leichtgewichtige Desktoplösung oder für Rechner mit begrenzten Ressourcen ist es eine gute Wahl und für all diejenigen, die nur alltägliche Aufgaben mit ihrem Bildbearbeitungsprogramm erledigen wollen, eine gute Alternative. Darüber hinaus bietet es noch die Arbeit mit Ebenen und eine Reihe von Effekten an. Hier aber ins Detail zu gehen, würde den Rahmen der Anleitung sprengen.

Ergebnis

Links

mtPaint Dokumentation (Englisch)
mtPaint Blog mit Tutorials, Beispielen, Tricks&Tipps (Englisch)
Lubuntu Screencast: mtPaint create Wallpaper (Englisch)
Lubuntu Screencast: mtPaint Basics (Englisch)

Das Jahr 2011 mit alten Rechnern in der Retrospektive

83 Millionen. Diese interessante Zahl veröffentliche vorgestern der IT-Branchenverband Bitkom und bezifferte damit die potentielle Anzahl von in deutschen Haushalten herumliegenden Althandys, wie heise.de berichtet. Grob geschätzt hat also jeder Deutsche irgendwo noch ein Mobiltelefon zu Hause herumliegen, dass er womöglich gar nicht mehr benutzt.
Für mich rief diese Zahl Erinnerungen an meine vor einiger Zeit veröffentlichten Ergebnisse zum Energieverbrauch meiner Computer wach. Wie viele ältere PCs, Laptops und Netbooks wird es wohl in Deutschland noch geben und wie viel Energie wurde in ihre Herstellung investiert, was wird verbraucht und vor allem was lässt sich mit all der Elektronik noch anstellen?
Ich gebe mich nicht der Illusion hin zu glauben, dass sich in naher Zukunft etwas an diesem IT-Trend ändern wird. Es ist wohl heute schon eher der Regelfall mehrere Handys, Smartphones, Tablets, Laptops und normale PCs gleichzeitig zu besitzen. Auf einen allgemeinen Willen, der Fortschritt und Nutzen sowie wirtschaftliche als auch ökologische Vernunft zusammenführt, müssen wir wohl noch eine Weile warten.
Bevor ich mich nun als Moralapostel aufspiele, der nicht wenige dieser IT-Goodies selbst besitzt, ist hier einfach mal ein Überblick über meinen Rechenpark und die Freie Software, die dort zum Einsatz kommt, was man damit noch machen kann und warum es sich lohnt an gebrauchter Hardware nicht nur festzuhalten, sondern sie einfach weiterhin wie einen neuen Rechner zu benutzen.

Core Duo

Wenn man einen klassischen Desktop-PC mit einem 2,8 GHz Dual-Core-Prozessor betreibt, stellt man schnell fest, dass es kaum eine Anwendung gibt, die man damit nicht zum Laufen bringen kann. Dieser PC gehört schon lange wieder zur Low-End Kategorie, aber ernsthaft, mir ist noch keine Applikation untergekommen, die hier drauf nicht funktionieren würde.
Anfang des letzten Jahres habe ich mich entschieden ein Multiboot-System aufzusetzen, wo heute noch Ubuntu, Debian Testing und Debian Sid parallel installiert sind. Die Vorteile überwiegen für mich eindeutig. Auf einer weiteren Partition teste ich gerne auch andere Distributionen oder benutze sie für meine Experimente zum Thema Softwareentwicklung.
Ich denke, ich habe damit eine Menge neue und gute Erfahrungen gemacht und das System erfüllt alle meine Erwartungen. Insbesondere Debian Testing hat mich überzeugt, weil es dieses Jahr bis auf meine Nvidia-Probleme zuverlässig und mit aktueller Software funktionierte. Trotz des für die Debianentwickler aufwändigen Wechsels von Gnome 2 zu Gnome 3 geriet Testing nie ins stottern. Für einen klassischen Arbeits- und Multimedia-PC hat sich Debian auf jeden Fall bewährt und die Vorurteile, dass es mit Debian viel schwieriger sei ein solches Setup einzurichten und zu pflegen, konnte ich für mich nicht bestätigen.
Auch ein leichtgewichtiges Spielesystem macht sich bezahlt, dass nicht nur eine gute Performance liefert, sondern auch eine praktische und gefahrlose Trennung zwischen wichtigen und optionalen Anwendungen ermöglicht.
Ubuntu habe ich letztes Jahr etwas vernachlässigt. Das liegt weniger daran, dass mir Gnome 3 gegenüber Unity besser gefällt, als dass ich bisher wenig Zeit für mein Projekt, Ubuntu als Videoschnittplatz zu benutzen, gefunden habe. Doch aufgeschoben ist nicht aufgehoben.

Dell Inspiron 4000

Seit 2008 benutze ich diesen mittlerweile 10 Jahre alten Laptop. Als Betriebssystem stand Debian Sid mit Openbox als Fenstermanager eindeutig im Fokus. Trotz des hohen Alters sorgen beide dafür, dass sich Anwendungen flüssig bedienen lassen. Bis zu diesem kleinen Missgeschick hat er mich auch oft unterwegs begleitet. Zur Zeit dient er als Couch-Laptop, wer sich unter dem Begriff etwas vorstellen kann. 🙂
Internetsurfen, Mails abrufen oder Feeds lesen lässt sich natürlich auch mit einem älteren Laptop erledigen. Wozu also immer den wesentlich energiehungrigeren Core Duo bemühen?
Sicherlich ist er auch weiterhin perfekt um als Testrechner für die brandneuste Entwicklung mit Debian zu dienen. Es macht einfach Spaß mit Sid zu arbeiten, auch wenn oder gerade deswegen, manchmal etwas nicht so funktioniert wie es sollte.
Als Zweitsystem dient mir Arch Linux, womit ich interessante neue Ideen kennenlerne und ausprobiere. Arch Linux gelingt es an manchen Stellen wie z.B. der Paketverwaltung noch etwas reaktionsfreudiger zu sein.
Ansonsten dürfen sowohl KolibriOS als auch der Plop Bootmanager auf Grund ihrer Vielseitigkeit und des schieren "WoW-Faktors" auf diesem Laptop nicht fehlen.
Bevor ich mit dieser Einteilung zufrieden war, habe ich noch verschiedene Distributionen mit dem Inspiron ausprobiert, darunter unter anderem Crunchbang und Linux Mint Debian.

IBM Thinkpad 600

Erst vor wenigen Monaten habe ich einen Thinkpad als mobilen Ersatz für den Inspiron 4000 erworben, den ich dann am liebsten neben MacBook Pro Besitzern aufbaue. :mrgreen:
Neben seinem Gastauftritt auf einem Weihnachtsmarkt als Jukebox, ist er vor allem mit einer Menge nützlicher Konsolenanwendungen bestückt, die von Debian Stable geliefert werden. Benötige ich eine grafische Oberfläche, komme ich mittlerweile mit dwm sehr gut zurecht, das zum einen ressourcensparend ist und sich zum anderen bequem über die Tastatur bedienen lässt.
Als Alternative hat sich das parallel installierte ConnochaetOS etabliert, dass durch eine gute Vorauswahl von leichtgewichtiger Software und den effizienten Unterbau von Arch Linux besticht. Mit Hilfe von Partimage tausche ich manchmal dieses Zweitsystem aus.
Auch Slitaz hat sich nicht schlecht geschlagen und beeindruckt vor allem durch seinen äußerst geringen Verbrauch an Festplattenspeicher und sehr effiziente Systemprogramme. KolibriOS und der Plop Bootmanager dürfen ebenfalls nicht fehlen.
Zusammengenommen vermisse ich nicht besonders viel mit dem Thinkpad, sieht man mal von der Fähigkeit ab h264 Videos ruckelfrei abspielen zu können. Hier muss die Pentium II CPU einfach passen.

Toshiba Portégé 3110CT

Toshiba ist mit diesem kompakten Subnotebook 1999 schon ein kleines Kunststück gelungen. Portabilität ist sicher seine große Stärke. Umso merkwürdiger scheint es da zu sein, dass ich dieses Geschenk zur Zeit hauptsächlich als kleinen Heimserver und Testplatz für Fenstermanager und Konsolenanwendungen benutze. Viel zu klagen hatte ich 2011 nicht, denn dank Debian Stable läuft der Rechner rund und stabil. Durch die geringe Größe nimmt der Laptop nicht besonders viel Platz weg und trotz des kleineren 64 MB Arbeitsspeichers, sind seine anderen Systemspezifikationen besser als die des Thinkpad. Das macht ihn leistungsfähig genug, um alle meine privaten Serveransprüche zu erfüllen.

Toshiba Satellite 220CS

Dieser 15 Jahre alte Laptop ist mit Sicherheit eine Herausforderung. Das Problem liegt weniger an der 1,4 GB großen Festplatte oder dem Pentium I Prozessor. Hätte dieser Toshiba etwas mehr RAM, ich könnte sehr wahrscheinlich von den gleichen Ergebnissen wie bei den anderen Computern erzählen. Die Herausforderung besteht tatsächlich darin ein geeignetes Betriebssystem zu finden, welches sowohl die Hardwareanforderungen von 16 MB RAM erfüllt und zum anderen zeitgemäße Software zur Verfügung stellt.
Den besten Kompromiss aus Geschwindigkeit, Bedienbarkeit und Softwareauswahl liefert hier zur Zeit Slitaz. Es ist eine der wenigen Distributionen, deren Installationsmedien selbst bei so wenig RAM noch funktionieren und die, typische Linuxkenntnisse vorausgesetzt, keine großen Hürden für den Anwender darstellen. Idealerweise bringt Slitaz mit tazpkg einen äußerst reaktionsfreudigen Paketmanager mit, mit dessen Hilfe das Installieren von Software ein Kinderspiel ist.
Zur Zeit eignen sich insbesondere Konsolenanwendungen für einen effizienten Einsatz und auch der Betrieb als Torrent-Sklave oder Jukebox ist möglich. Für die Zukunft sollte man sich auch Do-it-yourself-Distributionen wie CRUX merken, mit denen sich ein maßgeschneidertes und sehr effizientes System erstellen lässt, dass aber mehr Wissen des Anwenders voraussetzt.
Schon heute gibt KolibriOS mit einer grafischen Oberfläche ein gutes Bild auf dem Satellite 220CS ab, auch wenn sich damit nicht jedes Benutzerszenario abdecken lässt. Ebenfalls beeindruckend ist FreeDOS, das eine ideale Wahl für Rechner Anfang und Mitte der 90iger Jahre ist und mit dem sich mehr erreichen lässt als nur Spiele aus der damaligen Zeit zu spielen.

Fazit

Mein Blog gäbe es in dieser Form nicht, wenn es selbstverständlich wäre, ältere Hardware weiterhin mit Freier Software weiterzuverwenden. Menschen, die so etwas tun, etikettiert man gerne mit negativ konnotierten Begriffen wie nostalgisch, antiquiert und rückwärts gewandt. Ich kann nicht garantieren, dass die in diesem Blog beschriebenen Wege für jeden das Richtige sind, ich sage nur, sie funktionieren für mich.
Alle meine privaten Anwendungsfälle werden mit den alten Rechnern abgedeckt. Es lohnt schon allein aus informativen Gründen, sich näher mit der Thematik rund um Freie Software und ältere Rechner zu beschäftigen. Man muss nur offen für Neues sein und immer an die Vielzahl von Verwendungsmöglichkeiten zurückdenken.
Und irgendwann kommt der Zeitpunkt, wann sich das alles mit der aktuellen Hardware von heute wiederholen wird.

gambaru.de ist nun auch über den Planeten von ubuntuusers.de zu empfangen

Ich wurde letzte Woche von svij vom Ikhayateam auf ubuntuusers.de angeschrieben, ob ich in Zukunft nicht Lust hätte Beiträge an den Planeten zu schicken, die dort mit Hilfe von Feeds aggregiert werden. Ich habe kurz überlegt und dann ja gesagt.
Wer sich unter dem Planeten nichts vorstellen kann, er bietet im Grunde genommen eine Übersicht über Nachrichten und Blogs aus dem Bereich Ubuntu, Linux und Open Source. Meine Bedenken, dass ich nicht nur zu Ubuntu schreibe, hat svij mit dem Hinweis auf die anderen Themen "Linux und Open Source" zerstreut. Also steht nun einer Flut von Slitaz, TinyCore oder Posts zu Konsolenapplikationen in Richtung Planet nichts mehr im Wege. 😛
Nein, ich denke ich werde nicht jeden Beitrag zum Planeten schicken und versuchen ausgewählte Beiträge vorzustellen oder in Zukunft die ein oder andere Anwendung mit Lubuntu testen anstelle mit Distribution XY. Wirklich, alles ist irgendwie austauschbar.
Ich habe auch ein paar kritische Stimmen zum ubuntuusers.de Planeten auf linuxundich.de oder picomol.de gelesen, kann aber aus Mangel an Erfahrung den Eindruck weder bestätigen noch widerlegen.
Ansonsten ist mir wichtig, dass alle meine Beiträge unter CC-BY-SA stehen und jeder sie nach der Lizenz auch so verwenden darf. In Zukunft werden alle Posts für den Planeten mit dem Schlagwort ubuntuusers versehen. In diesem Zusammenhang wollte ich auch mal auf ein tolles Feature von WordPress hinweisen, mit dem man einzelne Schlagworte oder Kategorien per Feed abonnieren kann, obwohl das in der Beschreibung selten auftaucht.
Wer also nur an Slitaz interessiert ist kann das Schlagwort mit dieser Adresse abonnieren, wer nur über die Kategorie Distributionen etwas lesen möchte kann es mit diesem Link versuchen. Das Prinzip ist immer das Gleiche.
Ansonsten wird sich nichts verändern und alles bleibt beim Alten.

Zurück zu den Wurzeln: Welches Debian ist das Richtige

Viele Distributionen setzen auf Debian als Unterbau. Im Grunde genommen tauschen die meisten davon nur die Oberfläche aus, darunter bleibt aber alles gleich. Mit dem Original lässt sich das gleiche Ergebnis erreichen. Debian hat verschiedene Zweige, die auch als Repositorien oder Distributionen bezeichnet werden. Dabei bietet Debian schon heute vom fortlaufend aktuellen Desktopsystem bis zur grundsoliden Serverdistribution alle Optionen an. Hier eine kurze Übersicht über die Möglichkeiten.

Experimental

Experimental ist im Grunde genommen kein vollständiger Zweig, sondern lediglich die Spielwiese der Debianentwickler und ist nicht für Endbenutzer gedacht. Hier werden Alpha-Versionen von Software und wie der Name schon andeutet experimentelle Pakete hochgeladen. Sie haben standardmäßig die Pin Priorität 1, was verhindert, dass automatisch ein Upgrade auf Pakete in Experimental stattfindet. Ich benutze Experimental im Regelfall äußerst selten, wenn ich z.B. eine Beta-Version von Iceweasel ausprobieren möchte.
Die Quintessenz: Wenn du fragen musst, ob Experimental das Richtige für dich ist, ist es das nicht.

Unstable alias Sid

Wenn der Entwickler zuversichtlich ist, dass sein Paket eine gewisse Reife erlangt hat und alle Abhängigkeiten erfüllt werden, wird es Zeit für das Einstellen in Unstable. Sid ist nie fertig und fortlaufenden Änderungen unterworfen. Es gibt deswegen auch keine Installations-CDs. Debian Unstable wird in der Regel über ein dist-upgrade von Stable oder Testing installiert.
Debian Sid ist der Zweig, der in der Regel von Entwicklern und Nutzern gewählt wird, die immer am aktuellsten Stand der Technik interessiert sind. Wenn du dazu beitragen möchtest Debian noch besser zu machen und Fehlerberichte zu verfassen, ist Debian Unstable die perfekte Wahl. Die Benutzung erfolgt aber auf eigene Gefahr. Es ist keine Frage, ob Fehler mit der Zeit auftreten, sondern nur wann.
Ich habe Debian Sid auf dem Dell Inspiron 4000 Laptop und für ein Spielesystem auf dem Core Duo installiert. Meine Erfahrung ist, dass ein leichtgewichtiges und minimales System mit Debian Sid sich ohne weiteres pflegen lässt, wenn man folgende Punkte beachtet.
Man muss bereit sein temporär auf bestimmte Software zu verzichten und sie mit vergleichbarer ersetzen, z.B. Iceweasel mit Chromium tauschen oder umgekehrt. Man sollte wissen wie ein Downgrade funktioniert oder wie man Pakete auf "hold" setzt, damit sie nicht durch ein Update ersetzt werden. Ein entsprechendes Problem mit Bugs hatte ich dieses Jahr mit Midori und Claws Mail.
In vielen Fällen hilft apt-listbugs, um die schwerwiegendsten Fehler schon vor einem Update zu erkennen. Das einzige wirklich gravierende Problem hatte ich dieses Jahr nur mit dem Nvidia-Treiber, der bekanntermaßen unfrei ist. Mit Hilfe von Backups, Downgrades oder dem Wechsel zu freien Treibern ließ sich das Problem lösen.
Wenn diese Beschreibung eher Magendrücken als Begeisterung ausgelöst hat, ist Debian Unstable nicht der richtige Zweig. Auf der anderen Seite ist es ideal, wenn man Debian besser machen möchte.

Testing

Nachdem ein Paket in der Regel 10 Tage in Unstable verbracht hat, migriert es automatisch nach Testing, solange alle Abhängigkeiten erfüllt werden und das Paket keine "RC Bugs", veröffentlichungskritische Bugs, beinhaltet.
Im Gegensatz zu Unstable verändert sich das System weniger dramatisch bei jedem Update und man ist vor den offensichtlichsten Fehlern geschützt, die in Sid abgefangen werden. Leider hat Testing momentan zwei Nachteile, die man vor der Benutzung sich in Erinnerung rufen sollte.
Sollte wider Erwarten ein Fehler in Testing auftreten, erfolgt keine zeitgerechte Beseitigung des Problems. Das neue Paket wird in Unstable eingestellt und erneut dauert es 10 Tage bis es in Testing ankommt. In besonders kritischen Fällen kann der Paketbetreuer entscheiden dem Paket eine höhere Priorität zuzuordnen und es gelangt dann nach 5 oder 2 Tagen nach Testing. Debian Testing wird zur Zeit nicht vom Sicherheitsteam betreut! Unter Umständen kann das bedeuten, dass man 10 Tage oder länger auf die Lösung eines kritischen Sicherheitsproblems warten muss.
Problematisch ist auch, dass Pakete aus Testing vom Debian Release Team entfernt werden können, wenn sie auf Grund von Fehlern andere Pakete blockieren. Eine Initiative namens CUT versucht diese Probleme langfristig zu lösen.
Ich benutze Testing auf meinem leistungsfähigsten Rechner und habe bisher nur Probleme mit dem Nvidia-Treiber gehabt. Für mich funktioniert Testing zur Zeit ausgesprochen gut. Um Sicherheitsprobleme zu lösen oder gezielt neuere Software zu installieren, greife ich auf Apt-Pinning zurück.
Prinzipiell gilt das Gleiche wie für Unstable, wobei Testing weniger schnell bricht als Unstable, dafür die Lösung des Problems teilweise länger auf sich warten lässt. Wer keine Server betreiben muss und bereit ist nach der Lösung eines Problems zu recherchieren sollte sich Testing merken.

Stable

Alle Wege führen zu Stable. Dies ist die Version, die veröffentlicht wird, der Fels auf den alle anderen Debian-Derivate bauen. Wer sich unschlüssig ist, welchen Zweig er wählen muss, sollte immer zu Stable greifen.
In der Vergangenheit habe ich Debian Stable benutzt und ich komme nur zu einem Schluss: Es eignet sich nicht zum Bloggen! Keine heftigen Bugs oder katastrophalen Systemabstürze. Einfach nur total langweilig!
Egal was ich vorher geschrieben habe, Stable ist davon nicht betroffen. Sicherheitsprobleme werden schnell gefixt, dies ist der Zweig, den man einsetzen sollte, wenn einem Stabilität wichtiger als die neuesten Feature ist.
Das Einzige was Benutzer bemängeln sind veraltete Software oder schlechte Hardwareunterstützung. Dieses Problem haben natürlich die Debianentwickler schon lange erkannnt. Eine Lösung dafür sind Debians Backports.
Ansonsten bereiten höchstens Webbrowser wie Chromium oder Iceweasel ein Problem. Die Anleitung auf mozilla.debian.net oder mein Beitrag zu Iceweasel zeigen aber die Alternativen auf.
Abgesehen von Browsern sehe ich keinen Grund, warum man als durchschnittlicher Benutzer immer und überall die neueste, aber instabile Software haben müsste. Mit der Installation von Stable ist man in der Regel für zwei Jahre vollkommen von allen Computerproblemen befreit.

Oldstable

Nach der Veröffentlichung von Debian Stable wird die vorangegangene Version zu Oldstable und noch ein weiteres Jahr mit Sicherheitsaktualisierungen versorgt. Insbesondere für Server lohnt es sich deshalb mit dem Upgrade zu warten, solange neue Feature nicht gebraucht werden. Wer als Desktopbenutzer zufrieden mit seinem System ist, schätzt den langen Support von Debian.

Jahresrückblick 2011: Spiele mit Linux

Das Jahr geht zu Ende, was man daran erkennt, dass sie im Radio wieder John Lennons Happy Xmas spielen: "Another year over, what have you done?"

Ein Blog macht es ziemlich einfach diese Frage zu beantworten. Bis zum Ende des Jahres wollte ich ein paar Themen einfach mal Revue passieren lassen und mit dem sicherlich angenehmsten anfangen: Spiele mit Linux

Oft höre ich irgendwo die Frage, ob Spiel XY für Windows auch unter Linux laufen würde. Meistens entscheidet sich dann nach der Antwort für den Fragesteller, ob er Linux wohlgesonnen ist oder nicht. Warum eigentlich? Es ist ja nicht die Schuld einer Distribution, von Linux und Freier Software im Allgemeinen, dass ein für eine andere Plattform entwickeltes Spiel nicht funktioniert und mit Sicherheit lässt es keine Rückschlüsse über die Bedienbarkeit und Qualität Freier Software zu.
Die Hersteller argumentieren natürlich aus betriebswirtschaftlichen Gründen, dass für eine so kleine Zielgruppe wie Linuxspieler sich eine offizielle Unterstützung aus Kostengründen nicht lohnen würde. Doch wenn es keinen Port gibt, wird die Zahl dieser Gruppe weiter klein bleiben. Ein Teufelskreis?

Ich habe 2008 für mich entschieden unter diese Logik einen Schlussstrich zu ziehen und mein damals ausschließlich für World of Warcraft betriebenes DualBoot-System mit Windows XP endgültig einzustampfen und ab sofort WoW mit Wine zu spielen. Seitdem kaufe ich nur noch Spiele, die entweder unter Wine laufen oder für die es eine native Linuxversion gibt.

Dass auch sehr bekannte Spiele gut mit Linux funktionieren, beweist Blizzard Entertainment mit seinen Titeln. Starcraft II läuft ausgezeichnet mit Linux und Wine und seit Mai spiele ich mit dem minimalen Debian Sid und mit Crossover Games, die zusammen mit allen Freiwilligen des Wine Projekts maßgeblich für die gute Spielbarkeit mit Linux verantwortlich sind.
Wie gut oder wie schlecht ein Spiel unterstützt wird, bleibt aber weiterhin in der Verantwortung des Entwicklers und ich denke die beste Antwort, die man als Kunde liefern kann, ist es nur solche Spiele zu kaufen, die auch mit einem Freien Betriebssystem spielbar sind. Außerdem, wirtschaftliche Gründe hin oder her, es hängt auch von der eigenen Unternehmensphilosophie ab wie wichtig einem Kompatibilität wirklich ist. Dass es auch anders geht, hat in der Vergangenheit Id Software bewiesen.
Spiele unterscheiden sich in einem wesentlichen Punkt von allen anderen Softwarekomponenten. Sie sind absolut optional, auch wenn jetzt sicher einige Zocker aufstöhnen werden. Ich beurteile sie deswegen auch anders als z.B. einen Webbrowser, eine Datenbank oder Blogsoftware. Während man Transparenz und Standards bei Freier Software nicht hoch genug einschätzen kann, geht die freie Welt nicht davon unter, wenn der Quellcode von Starcraft 2 verschlossen ist.

Sicherlich in einer perfekten Welt könnte man jedes Spiel quelloffen veröffentlichen und die Entwickler bekämen trotzdem ihre Entwicklung belohnt. Leider sind wir noch nicht soweit, unmöglich ist es aber auch nicht, wie z.B. das Online Rollenspiel Ryzom zeigt.
In vielen Fällen ist die Lebensdauer und die Bedeutung eines Spiels zu gering. Was heute in ist, ist morgen out. Doch lässt man zwanzig Jahre verstreichen, werden alte Spielkonzepte plötzlich wieder neu und angesagt, man braucht eben nur ein modernes Spielgerät. Aber vielleicht bin ich auch einfach Reif fürs Museum.

Dieses Jahr habe ich einige gute Spiele in den Humble Bundles gefunden. Meine Favoriten: Trine, VVVVVV, Aquaria und Shank. Trotzdem die meisten dieser Indiespiele mit sehr wenig Personal gestemmt werden, ist der Spielspaß hoch und wie es Aquaria zeigt auch möglich ein zuerst verschlossenes Spiel unter der GPL zu veröffentlichen.
Wenn man also mit Linux spielen will, ist sicher ein guter Weg sich zuerst einmal die Übersicht bei holarse.de anzuschauen. Auch 2011 habe ich noch nicht alle Spiele durchgespielt, die dort aufgeführt sind. Oder wenn es schnell gehen soll, lädt man sich einfach eine Live-Distribution für native und quelloffene Spiele herunter.
Fasziniert dieses Jahr hat mich auch das Zusammenspiel von Freier Software und Musik, die unter einer Creative-Commons-Lizenz veröffentlicht wird. M.A.R.S und Obsidian Shell machen es möglich.

Schließlich ist alles nur eine Geduldsfrage. Wartet man lange genug, lässt sich jedes Spiel irgendwann in einem Emulator spielen. ScummVM ist zwar kein Emulator, aber dennoch einer meiner langjährigen Favoriten. Auch 2011 haben Indiana Jones und das Schicksal von Atlantis oder The Dig nichts von ihrem Charme verloren. Wie oft ich schon gewünscht habe, dass diese beiden Titel verfilmt worden wären und nicht was uns stattdessen mit dem letzten Indy Teil oder Armageddon vorgesetzt worden ist. 🙄
Alles in allem ist die Liste mit Linuxspielen auch dieses Jahr wieder größer und nicht kleiner geworden. Kann man mit Linux spielen? Auf jeden Fall!

Humble Indie Bundle 4, Shank, Bit.Trip Runner und Aquaria im Überblick

Der Verkauf des Humble Indie Bundle 4 läuft schon seit einigen Tagen, doch ich wollte mir dieses Mal etwas Zeit nehmen um drei Spiele aus dem aktuellen und erst vor kurzem zu Ende gegangenen letzten Bundle vorzustellen.
Zuletzt habe ich ein paar kritische Stimmen wie z.B. auf linuxundich.de gelesen, ob man als Blog wirklich jedes neue Bundle ankündigen muss, wenn mittlerweile in jeder Linuxecke des Internets darüber berichtet wird. Da ist was Wahres dran. Ich sehe den Sinn eines Blogs ebenfalls nicht in Ankündigungen und Nachrichtenmeldungen. Es gibt mehr als genug Seiten, die sich darauf spezialisiert haben.
Beim Humblebundle werde ich dennoch eine Ausnahme machen, auch wenn die Meldungen nicht immer zeitnah erscheinen. Zum einen ist es schwer einzuschätzen, wie viele Menschen tatsächlich schon die Humble-Bundle-Aktionen kennen und zum anderen kann ich zumindest mit dem Verlinken auf die entsprechenden Spieleseiten oder Rezensionen ein kleines Nachschlagewerk zu Indiespielen mit Linux für mich erstellen, dass ich unter dem Schlagwort Humblebundle schnell aufrufen kann.
Auch wenn kaum Zeit bei der in letzter Zeit hohen Frequenz bleibt alle Titel auch durchzuspielen, könnte von mir aus jeden Tag ein neues Bundle erscheinen, denn das bedeutet, dass wieder ein paar Spiele nativ für Linux angeboten werden. Und solange man frei entscheiden kann, ob man 1 Cent oder 100 Euro dafür zahlen möchte oder das Ganze ganz ignorieren kann, ist es die kurze Erwähnung für alle Linuxspieler und alle die es werden wollen sicher wert.

Aquaria

In der zweidimensionalen Unterwasserwelt von Aquaria schlüpft man in die Rolle von Naija, mit der man sich auf die Reise nach ihrer Vergangenheit begibt. Gleichzeitig erfährt man durch die Erzählerin, Naijas Stimme aus der Zukunft, über besondere Ereignisse und Orte, womit sich das Puzzle um ihre Erinnerung nach und nach zusammensetzt.
Naija ist in der Lage mit Hilfe der Aquaria durchströmenden Kraft des Verse mit Objekten zu interagieren und Zauber zu wirken. Die Entwickler haben diesen Teil des Spiels phantasievoll gelöst, indem Naija kurze Töne in einer bestimmten Reihenfolge singen oder einen Ton passend zur Farbe eines Gegenstands längere Zeit halten muss, um an den Inhalt zu gelangen.
Das Spiel vereinigt einige Rollenspielelemente wie das Zubereiten von Speisen und ein Zaubersystem mit typischen Aufgaben wie dem Erkunden der Unterwasserwelt, das Lösen von Rätseln und Kämpfe mit feindlich gesonnenen Kreaturen.
Als Adjektive zu Aquaria fallen mir charmant, bezaubernd und phantasievoll ein. Die Atmosphäre des Spiels ist dicht, wozu auch die sehr gelungene Musik und die Stimme der englischen Erzählerin beiträgt. Eine deutsche Übersetzung scheint es in Form von Untertiteln zu geben. Das Spiel ist für Kinder perfekt geeignet.
Die Installation unter Linux ist sehr gut. Es gibt sowohl 32bit- als auch 64bit-Deb- oder RPM-Pakete. Das Spiel wird nach /opt installiert. Wer eine Fehlermeldung beim Installieren erhält, die auf ein fehlendes Verzeichnis hinweist, sollte den leeren Ordner /usr/local/share/desktop-directories/ anlegen. Das Problem scheint aber ein spezifisches Problem bei einer reinen Lösung mit Fenstermanagern zu sein. Besonders auch: Die Spielengine von Aquaria wurde unter der GPL veröffentlicht.

Shank

Das Erste was mir in den Sinn kam war ein Spruch des Duke : "I'm here to kick ass and chew bubblegum and i'm all outta gum." Shank ist ein im Comicstil gezeichnetes 2D-Haudraufspiel mit Stil. Wer Desperado mochte, wird Shank lieben. Obwohl das Spiel "nur" zweidimensional ist, hat man stellenweise das Gefühl in einem echten Film zu sitzen, der alles hat, was einen guten Actionfilm auszeichnet: Rache, fiese Typen, coole Sprüche und sinnlose Gewalt.
Mit Hilfe zweier Messer und Pistolen, Granaten, einer Schrotflinte und der Kettensäge (fehlt nur noch die BFG9000) macht sich Shank auf seinen Rachefeldzug um den "Butcher" zur Strecke zu bringen. Dass er dabei nicht immer sehr subtil vorgeht versteht sich von selbst, was dem Spiel in Deutschland zu einer USK-18-Freigabe verholfen hat. Ein weiterer Bonus von Shank: Es gibt einen Mehrspielermodus.
Der Bin-Installer für Linux funktionierte problemlos. Das Spielverzeichnis lässt sich frei wählen. Das Einzige was ich bedauert habe war mein fehlender Gamecontroller, mit dem die Komboangriffe sicher noch mehr Spaß machen würden.

Bit.Trip Runner

Bit.Trip Runner ist ein in Retromanier gezeichnetes...Rennspiel? Die Spielfigur, CommanderVideo, läuft dazu ununterbrochen, worin die Schwierigkeit des Spiels liegt, zu Chiptuneklängen in dieser seitwärts scrollenden Pixelwelt. Man muss zum richtigen Zeitpunkt über ein Hindernis springen, hinunter durchgleiten oder es durch einen Tritt aus dem Weg räumen. Der Musikrhythmus passt sich dann passend zu den Aktionen an, was bei 50 verschiedenen Leveln, eben auch zu 50 vollkommen verschiedenen Musikstücken führt.
Am Anfang muss man lediglich über Hindernisse springen, der Schwierigkeitsgrad steigt, wie sollte es anders sein, von Level zu Level an. Ich hatte teilweise Probleme auf Grund der großen Pixel noch die Spielfigur und die Hindernisse zu sehen und bis man den Dreh mit dem Timing raus hat, kann es teilweise mehrere Anläufe brauchen. Ich denke das Youtube-Video zeigt das Spielprinzip ziemlich gut.
Die Installation ist dank vorgefertigter 32bit- und 64bit-Deb-Pakete ein Kinderspiel.

Ansonsten befinden sich im Humble Indie Bundle 4 noch folgende Spiele und Soundtracks.

Oh Freude: Mainboardtausch zu P5QPL-AM bewirkt Wunder

Anfang des Monats dachte ich, ich hätte alles unter Kontrolle und könnte damit leben. Schließlich hatte sich herausgestellt, dass der große und mächtige Core-Duo-Rechner zwar ab sofort nur noch mit 2 GB RAM bestückt werden konnte, merkwürdige Fehlermeldungen und Abstürze sich aber wahrscheinlich auf den aktuellen Nvidia-Treiber bezogen hatten, weswegen ich ein älteres Backup aufspielte und die betreffenden Treiber auf "halt" setzte. Zumindest von den beängstigenden Segfault-Fehlern war weit und breit nichts mehr zu sehen.
Doch dann kam der Tag als ich eine recht große Datei komprimieren wollte, bzip2 sich aber im Laufe des Prozesses schlicht weigerte fortzufahren. Interessanterweise erschien eine sehr ausführliche Fehlermeldung, dass dieser Fehler wahrscheinlich im Zusammenhang mit fehlerhaftem RAM stehen könnte....Möglicherweise war da ja was dran.

Ich startete den Rechner neu und sah..Schwärze. Irgendwann funktionierte dann nicht mal mehr der Einschaltknopf, weswegen ich die Faxen dick hatte und mir ein neues Mainboard kaufte.
Ich suchte zuerst nach dem identischen Modell P5N73-CM, um auch der kleinsten Möglichkeit von Inkompatibilität aus dem Weg zu gehen, musste aber leider feststellen, dass sich dieser Typ in den vergangenen 2,5 Jahren äußerst rar gemacht hatte. Ich entschied mich schließlich für das P5QPL-AM von ASUS, welches vergleichbare Spezifikationen hatte.
Natürlich schaute ich vorher noch einmal nach dem empfohlenen RAM-Speicher auf der Herstellerseite, von TEAM-RAM aber keine Spur. Ich kreuzte also alle Finger und siehe da 2x2 GB TEAM TVDD2048M800 Module laufen stabil in diesem Board. Die einzig heikle Aufgabe war es den Prozessor samt Kühler vom alten Board auf das neue zu bekommen. Ich weiß nun ungefähr wie sich ein Chirurg bei einer Operation am offenen Herzen fühlen muss. 🙂
Um alle Zweifel auszuräumen unterzog ich die Kiste seit letzter Woche noch einigen Stresstests, um mal das Wort des Jahres zu benutzen. Es wurden 2 GB große Dateien xz komprimiert, für die Wissenschaft mit Boinc gerechnet und auch Unity habe ich benutzt.
Fazit: Operation erfolgreich, Patient lebt