Openshot ein Videoeditor für Linux

Ich denke ich habe meinen Videoeditor für Linux gefunden. Natürlich gibt es noch Pitivi oder Kino und noch ein paar andere. Dennoch gefällt mir zur Zeit Openshot am besten und das liegt vor allem an den folgenden Dingen.

  • Openshots Entwicklung ist aktiv und hat eine ausgezeichnete Hilfeseite unter anderem in Deutsch.
  • Alle Formate, die ffmpeg lesen und bearbeiten kann, werden von Openshot unterstützt.
  • Openshot passt sich perfekt in Gnome ein. Filme, Bilder und Audiodateien lassen sich ganz leicht mit Drag und Drop in den Videoeditor ziehen.
  • Im Gegensatz zu Pitivi, welches standardmäßig bei Ubuntu installiert ist, bietet Openshot zahlreiche Effekte und Möglichkeiten für Übergänge. Dazu ist ein Editor zum Erstellen von Titeln mit Vorlagen eingebaut mit der besonderen Option auch 3D animierte Schriftzüge mit Hilfe von Blender zu erstellen.

Letzteres wird aber bei Ubuntu 10.10 nur unterstützt, wenn man sich eine aktuellere Version von Blender, als die in den Repos vorhandene, installiert. Openshot verlangt hier mindestens Blender >=2.5.
Mein erster Eindruck ist, dass man mit Openshot auf einfache Art und Weise kleinere Heimprojekte erstellen kann und dank vielfältiger Exportmöglichkeiten z.B. auch gleich in ein Format für youtube oder vimeo umwandeln lassen kann.
Aktuellere Ubuntu-Pakete für Openshot und Blender gibt es auf Launchpad, wo sie als PPA verfügbar sind.

sudo add-apt-repository ppa:openshot.developers/ppa
sudo add-apt-repository ppa:cheleb/blender-svn
sudo aptitude update
sudo aptitude install blender openshot

Woher man freies Video- und Audiomaterial im Internet für sein erstes Projekt beziehen kann, dazu mehr im nächsten Beitrag.

Debian tauscht sich mit seinen Derivaten aus

Seit vergangenen Freitag hat Debian ein neues Projekt ins Leben gerufen, damit in Zukunft Verbesserungen in anderen auf Debian basierenden Distributionen einfacher an das Hauptprojekt zurückgegeben werden können.
Mit Debian Derivatives Exchange, kurz DEX, knüpft Debian an sein Zensusprojekt an, um mehr Feedback von den knapp 300 verschiedenen Derivaten zu erhalten. Hierbei wird zwischen in Debian entwickelten Geschmacksrichtungen, "Blends", und separat entwickelten Derivaten wie z.B. Ubuntu unterschieden.
Da es schon schwierig sein kann innerhalb einer Distribution die richtigen Kommunikationswege zu finden, wird dieser Informationsaustausch durch eine mittlerweile fast unüberschaubare Anzahl von weiteren unabhängigen Projekten nicht leichter gemacht.
Wer ist mein Ansprechpartner? Wie kann ich ihn kontaktieren und über was soll sich eigentlich ausgetauscht werden? Wer pflegt den neu entwickelten Code in ein Debian kompatibles Paket ein und wer entscheidet darüber, was "guter" Code ist und was nicht?
Oft unterscheiden sich schon die einzelnen Projektphilosophien stark von einander. Obwohl alle auf die gleiche Softwarebasis setzen, macht sich jeder seine eigenen Gedanken, was eigentlich eine gute Distribution ist, worüber ich auch schon ein paar Gedanken verloren habe.
Was in der Theorie logisch und einfach klingt, lässt sich in der Praxis schwierig umsetzen, da außer dem Interesse für ein Freies Softwareprojekt keine Hierarchie zwischen Debian und den Derivaten existiert.
Wie kommt man nun auf 300 Debian-Derivate? Hierzu führt ein Link auf der DEX Seite zu einem lesenswerten Artikel in Englisch, welcher anschaulich vor Augen führt, in wie viel verschiedenen Distributionen eigentlich Debian steckt.
Obwohl ich nicht voraussehen kann wie erfolgreich DEX sein wird, halte ich doch die Gedanken, die dahinter stecken, für wichtig und langfristig für alle Derivate auch für vorteilhaft. Denn nicht nur für ein einzelnes Stück Software, sondern auch für ganze Distributionen sollte meiner Meinung nach DRY gelten.

Pläne für ein Multi-Boot-System

Mein Entschluss steht fest. Mit Erscheinen von Ubuntu 11.04 werde ich ein Multi-Boot-System auf meinem Dual Core Rechner einrichten. Nein, ich werde nicht wieder zu Windows zurück wechseln. 😉
Mein erstes Multi-Boot-System entstand ganz am Anfang meiner Linux-"Karriere". Damals steckten viele Lösungen für Open-Source-Virtualisierung noch in den Kinderschuhen oder waren zumindest noch nicht so verbreitet wie das heute der Fall ist. Oft mangelte es auch an Wissen und leistungsfähiger Hardware.
Für viele war und ist der erste Schritt zu Linux ein Dual-Boot-System mit Windows. Natürlich unterstützt Windows bis heute nicht mehrere Betriebssysteme parallel auf einem Computer und auch fremde Dateisysteme lassen sich nicht ohne weiteres lesen oder sogar beschreiben.
Aus diesem Grund testete ich früher schon viele Betriebssysteme parallel und war Linux schon damals dankbar sich so geräuschlos um Multi-Boot-Systeme zu kümmern. Zuletzt waren fünf verschiedene Linuxdistributionen auf einem Rechner installiert, die alle mit Hilfe von GRUB gestartet wurden.
Heutzutage nutze ich weder Windows noch brauche ich zwingend verschiedene Linuxsysteme auf einem Rechner, ein paar alten Laptops sei Dank. 😉 Wenn überhaupt läuft ein weiteres Betriebssystem in Virtualbox oder Qemu.
Der Grund für ein Multi-Boot-System ist also wiedermal die Neugier und ein bisschen Experimentierfreude. Mit Ubuntu 11.04 setzt Ubuntu erneut andere Maßstäbe und favorisiert ab sofort eine eigene Desktopoberfläche namens Unity.
Prinzipiell lässt sich natürlich weiterhin zwischen Unity und Gnome 3 und jeder anderen Desktopumgebung wählen. Es besteht also keine Notwendigkeit Ubuntu den Rücken zu kehren.
Nichtsdestotrotz kommt mit Debian Testing und etwas Mint alias LinuxMintDebian mehr Abwechslung herein und schließlich komplettiert dies auch Debian Squeeze auf dem Toshiba Portégé und Debian Sid auf dem Dell Inspiron Laptop. 🙂
Momentan ist die Idee also LinuxMintDebian als Betriebssystem für alle typischen Desktopanwendungen zu nutzen und Ubuntu 11.04 gezielt für Video- und Audiobearbeitung einzusetzen, ohne dabei auf das schon vorgestellte Ubuntustudio zurückzugreifen.
Das dritte und eventuell vierte Betriebssystem dient dann mehr dem Ausreizen aller Möglichkeiten und ich wollte schon immer mal ein persönlich angepasstes ArchLinux erstellen. 🙂
Schade, dass Ubuntu 11.04 erst Ende April erscheint. 😈

Keep it simple

...oder wie meine Backup Strategie aussieht. Ich hatte vor wenigen Wochen ein Erlebnis, was mich einerseits den vor Jahren vollzogenen Umstieg auf Linux nicht bereuen ließ und andererseits daran erinnerte, dass scheinbar unkomplizierte Lösungen proprietärer Anbieter manchmal auch das Gegenteil bewirken können.
Mein Vater ist das, was man wohl einen vorbildlichen Windows-Nutzer nennen würde. Er informiert sich regelmäßig über nützliche Shareware, kümmert sich um Antivirenprogramme und den Schutz seines PCs und kauft Programme, die ihm gefallen. Natürlich hat mein Vater auch seine eigene Philosophie was ein Betriebssystem leisten soll und für ihn ist es eine Selbstverständlichkeit, dass er Hilfe von den Firmen und Personen erhält deren Produkte er kauft.
Bei Backups geht er keine Kompromisse ein. Die Systemfestplatte wird durch eine externe Lösung komplett gespiegelt und das Image auf einer weiteren USB Festplatte sicher verwahrt.
Als er mir irgendwann erzählte, er musste wieder einmal ein paar Einträge in der Registry löschen, wurde ich hellhörig. Sein Backup Programm, Acronis True Image Home, ließ sich unter Windows 7 nicht wieder vollständig entfernen. Die native Fähigkeit von Windows ein Systembackup zu machen wurde nicht wiederhergestellt.
Kurze Zeit später schickte er mir eine Email des Supports, der in Deutsch antwortete, aber auf eine englische Seite von Acronis verlinkte, auf der die Lösung des Problems erklärt wurde.
Acronis forderte seine Kunden auf ein weiteres Hilfsprogramm herunterzuladen und auszuführen, das natürlich ebenfalls komplett in Englisch war. Natürlich darf man annehmen, dass damit das Problem gelöst worden wäre, aber der Ursprungszustand war immer noch nicht hergestellt, denn diverse Einträge in der Registry waren weiterhin vorhanden.
Auch im Jahr 2011 haben es Windows-Nutzer weiterhin schwer Herr über das eigene Betriebssystem zu sein. Man ist vollkommen auf das Wohlwollen von Windows und der externen Softwarehersteller angewiesen. Gerade elementare Prozesse wie Deinstallation sind hinter einem Schleier versteckt.
Wozu Registryeintrag xy auch nach der Deinstallation noch gut sein sollte, erfährt man nicht. Vielmehr entstehen deswegen Programme wie Revo Uninstaller, so lässt sich natürlich auch Umsatz generieren.
Ich habe mir deshalb angewöhnt gerade bei so wichtigen Aufgaben wie Backups, es so einfach wie möglich zu handhaben. Ich unterteile die Daten in verschiedene Klassen von "Wichtigkeit".

  • Daten, auf die ich nicht verzichten kann oder will
    Diese sichere ich regelmäßig, wenn sich etwas geändert hat, mit Dropbox oder Ubuntu One. Entweder ich speichere sie direkt in den entsprechenden Ordner und sie werden automatisch mit der "Cloud" synchronisiert oder ich komprimiere alles und verschiebe in regelmäßigen Abständen alles manuell.
  • Daten, die wichtig sind, aber nicht täglich gesichert werden müssen
    Alles andere, was wichtig ist aber nicht unersetzlich, landet bei mir auf externen Festplatten oder einem Online Datenspeicher wie z.B Strato HiDrive. Hier bevorzuge ich ebenfalls die händische Methode.
    Damit ich mir nicht merken muss, welche Daten erneuert wurden oder nicht, benutze ich Programme wie Unison oder rsync. Damit lassen sich komplette Backup-Verzeichnisse spielend leicht aktuell halten.
    Mein Lieblingsbefehl:
    rsync -avze ssh --delete 192.168.0.200:/home/apo/wichtig /home/apo/backup
    Hier wird das Verzeichnis wichtig auf 192.168.0.200 mit dem lokalen Backup-Verzeichnis über SSH synchronisiert und nicht mehr entfernt existierende Dateien auf der lokalen Seite gelöscht.
    Um nicht zu riskieren ungewollt Daten lokal zu löschen, hänge ich immer vorher noch einmal --dry-run an den Befehl und entscheide mich dann, ob ich mit dem Löschen fortfahren will oder nicht.
  • Daten, die ich gebrauchen kann, aber die nicht kritisch sind
    Zum Testen und Ausprobieren sichere ich ganze Installationen komplett mit der hervorragenden Backuplösung Clonezilla. Sie ist vollständig Open Source, bringt aber die gleichen Fähigkeiten wie bekannte proprietäre und kostenpflichtige Lösungen wie Norton Ghost oder Acronis True Image mit.

Ich denke, für die meisten Sterblichen genügt es die Daten regelmäßig per Hand mit einer der vorgestellten Lösungen zu sichern. Natürlich lässt sich das ein oder andere auch mit einem Cron Job automatisieren. Besser ist jedoch ein Backup bewusst und regelmäßig manuell vorzunehmen. Dabei helfen diverse Clouddienste schon heute ungemein.

Ich streichle meinen Pinguin

Ich lese gerade eines der wenigen Printmedien, welches trotz scheinbar unbegrenzter Informationsfülle aus dem Internet schon seit Jahren einen festen Platz bei mir erobert hat. Die Rede ist vom Magazin für Computer Technik oder kurz der c't.
Auf der ersten Seite der Ausgabe 6/2011 hat Christof Windeck seine Gedanken zur entfachten Popularität von Linux in Googles Android Betriebssystem niedergeschrieben. Er geht dabei kritisch auf Googles Eigenart ein, dass wichtige Systemkomponenten nur dann ihre volle Wirkung entfalten, wenn man auch ein Google Konto sein eigen nennen darf, sieht aber in Android ein wirkungsvolles Beispiel wie Linux populärer und für die Mehrheit der Menschen beliebter gemacht werden kann.
Auf der anderen Seite sieht er bei den normalen "echten" Linuxvarianten die Gefahr, dass zu viel von der Perspektive der Programmierer aus entwickelt wird und die Anwender, vor allem Laien, vernachlässigt werden. Sein Fazit ist, wenn Linux aus der Nerd Ecke herauskommen wolle, müsse es die bessere, coolere, schönere Alternative zu Windows werden.
Ich kann ihm in vielen Punkten nur zustimmen. Woran liegt es, dass Android scheinbar jeder kennt, Linux aber ein Nischendasein fristet?
Ich bin mir nur nicht sicher, ob die Kausalkette stimmt. Meiner Meinung nach ist Linux heute schon besser, cooler und schöner als Windows. Das Problem scheint viel mehr zu sein, dass nicht jeder weiß, wie man sein Lieblingslinux gestalten und anpassen kann.
Ist es wirklich so, dass sich die Leute für Android entscheiden, weil Google das benutzerfreundlichere Betriebssystem entwickelt hat? Wie viele Leute wissen eigentlich, dass Android auf Linux basiert? Und wie vielen ist dies überhaupt wichtig? Wer entscheidet sich gezielt für Open Source?
Woran liegt es, dass Android scheinbar so weit vorne liegt? Ist der Vergleich mit einer desktopbasierten Linuxdistribution überhaupt zulässig?
Ich glaube, die meisten Konsumenten interessieren sich nicht für Unterscheidungen wie Open Source und Proprietäre Software. Wenn ich mich für ein HTC Smartphone entscheide, wie viel Gedanken verschwende ich darauf, dass die zu Grunde liegende Software Open Source ist? Was sind die wirklichen Kaufgründe?
Oft ist es aber so, dass nicht die Software sondern zu erst einmal der Name, die Hardware und Form und nicht zu vergessen der Preis beim Kauf ausschlaggebend sind.
Ich denke Linux will gar nicht zwangsläufig das populärste Betriebssystem werden, denn dazu müsste Linux zuerst einmal einen allgemeinen Willen entwickeln, der ein solches Ziel anstrebt.
Linux ist für mich ein Gesamtkonzept zusammengetragen von den unterschiedlichsten Menschen. Je nach Bedarf entsteht so ein Betriebssystem für verschiedene Ansprüche. Davon profitieren alle und somit auch Googles Android.
Ist es nicht eigentlich egal, welchen Namen ein offenes Betriebssystem hat? Ist es nicht viel wichtiger, dass die Verbreitung von Informationen frei ist und bleibt, dass es Standards gibt, die sagen, egal ob du ein Smartphone OS entwickelst oder 10 Jahre alte Hardware weiterhin betreust, es gibt Open Source, um das zu ermöglichen?
Natürlich denke ich auch, dass Linux präsenter in der Öffentlichkeit auftreten könnte. Aber es ist wie mit der unabhängigen Band, die man schon seit den ersten Tagen hört. Sie ist immer nur dann cool, solange sie nicht erfolgreich und massentauglich ist.
In diesem Sinne hoffe ich, dass Linux weiterhin alles ist. Ein Betriebssystem für Nerds und gleichzeitig der Startpunkt für interessante kommerzielle Entwicklungen. Die Informationen müssen frei sein, egal welchen Namen das angesagte Produkt gerade trägt.

Bei speedy nichts Neues

Ich habe schon lange nichts mehr über speedy geschrieben. Das liegt vor allem daran, dass alles läuft und er genau das tut, was er tun soll. Aber warum immer nur über Computerprobleme bloggen?
Der gute Toshiba Portégé 3110 CT steht nun seit einigen Monaten auf meinem Schreibtisch direkt neben dem TFT-Monitor des DualCore-Rechenknechts. Die meiste Zeit ist das Display eingeklappt und er dient mir so als kleiner Server.
Er verbraucht in diesem Zustand maximal 16-20 Watt. Gegenüber einem SheevaPlug ist das zwar immer noch relativ viel Energie, zumindest wenn man den Energieaufwand zur Herstellung des Plugs ausblendet, dafür ist er vielseitiger und lässt sich neben dem Serverdienst als Jukebox und natürlich auch als portables Netbook nutzen.
Seit meiner Debian-Squeeze-Installation letzten Sommer habe ich das Betriebssystem nicht mehr gewechselt. Kurz gesagt, ich bin total zufrieden wie alles momentan funktioniert. Deswegen habe ich gar kein Interesse ein neues Betriebssystem auszuprobieren. Hinzu kommt, dass es ein Problem mit dem externen CD-ROM Laufwerk zu geben scheint, was dazu führen würde, dass ich entweder auf das Floppy-Laufwerk oder die PEX-Installation zurückgreifen müsste.
Zwölf Jahre alt, nur 64 MB RAM und dennoch habe ich nicht das Gefühl, dass ein moderner Laptop hier einen grundlegenden Unterschied machen würde. Um diverse Distributionen herunterzuladen nutze ich speedy mit meinem Rtorrent-Setup und habe nun ein externes USB-Laufwerk mit jeder Menge Software, die ich demnächst ausprobieren möchte und dann natürlich hier auch kurz vorstelle.
Ansonsten habe ich mir schon oft die Frage gestellt, warum es notwendig sein sollte den Dual Core anzuschalten, nur um ein paar Flac-Dateien anhören zu wollen. Das kann speedy natürlich auch, so dass ich hier meine ursprünglich für Ubuntu eingerichtete Konfiguration für den Music Player Daemon nutze. Noch externe Boxen angeschlossen, die für die Beschallung der Wohnung ausreichen und fertig ist die Laptop-Jukebox.
Gesteuert wird alles über SSH und eine Screen-Session und für mpd hat sich ncmpc als Client ausgezeichnet.
Da Squeeze mit großer Sicherheit für die nächsten drei Jahre weitergepflegt wird, wird es hier also keine großen Veränderungen mehr geben. Bleiben aber noch diverse Anwendungen übrig, die mit speedy eine gute Testplattform gefunden haben.
Was ich aber auf gar keinen Fall machen werde, ist diesen Laptop zu einer Wetteruhr umbauen. Aber sollten sich irgendwo noch weitere alte Laptops finden lassen...vielleicht. 😈

Debian auf dem Toshiba Satellite 220 CS

Der neue 2.6.30 Debian-Kernel war erstellt worden und funktionierte in Qemu, nun musste alles noch auf den Toshiba-Laptop übertragen werden.
Ich hatte zwei Versionen zum Testen, einmal ein minimales Debian Squeeze und die Lenny-Sandbox-Version von KMandla, die schon gute Konsolenprogramme enthielt, nachweislich mit 32 MB RAM zurechtkommt und mir die Zeit erspart ein Debian Lenny in Qemu neu zu installieren.
Für Debian Squeeze war leider nach GRUB und dem Versuch /dev einzubinden Schluss. Da Squeeze eine andere Art benutzt um ein Device anzulegen als das noch bei Lenny der Fall war, müssen offenbar noch ein paar Optionen im neuen "Slitaz" 2.6.30 Kernel aktiviert werden, damit diese Funktionalität auch unterstützt wird.
Welche das genau sind und ob ich damit überhaupt richtig liege, entzieht sich momentan meiner Kenntnis. Der Verdacht liegt jedenfalls nahe, denn in einem emulierten System mit Qemu erhalte ich keine Fehlermeldung und alles scheint zu funktionieren.
Nun da war ja noch Lenny. Das 1 GB große Image wurde wieder mit dd auf die Toshiba Festplatte geschrieben und wie erhofft bootete das ganze System.
Da ich schon in Qemu die Wlan-Karte eingerichtet hatte, konnte ich sofort mit dem Ausprobieren beginnen. Die meisten Programme reagierten einzeln genauso wie dies bei Slitaz der Fall war.
Zum ersten Mal haarig wurde es bei dem Versuch mehrere Programme parallel über eine SSH-Verbindung zu nutzen. Der voreingestellte OpenSSH-Server und -Client und die gestarteten Programme reagierten für meinen Geschmack zu träge.
Vielleicht hilft das Austauschen des SSH-Servers mit Dropbear, dachte ich. Also versuchen wir einmal aptitude update.
Eine Stunde später war die Apt-Datenbank aktualisiert. 🙄 Ich entfernte den SSH-Server und installierte Dropbear und wieder dauerte es eine Stunde bis dieser Vorgang abgeschlossen war.
Ich bin zwar bei sehr alter Hardware geduldig, aber zwei Stunden Wartezeit um ein Programm zu installieren und zu entfernen, ist noch nicht der Weisheit letzter Schluss.
Hieran erkennt man, was für ein großer Unterschied ein paar MB RAM und ein schnellerer Prozessor ausmachen können. Die gleiche Operation dauert auf dem vier Jahre jüngeren Toshiba Portégé 3110 CT höchstens 2-3 Minuten und das ist für einen zwölf Jahre alten Laptop eine sehr akzeptable Zeit.
Dropbear reagierte tatsächlich besser, aber dies änderte nichts daran, dass die anderen Konsolenprogramme schwer zu kämpfen hatten. Danach trat das gleiche Problem auf, welches ich schon mit der Slitaz-Minimalinstallation hatte.
Versucht man ein netzwerklastiges Programm wie z.B. Rtorrent oder Moc über SSHfs zu betreiben, friert der Laptop irgendwann ein. Wlan plus WPA-Verschlüsselung und zusätzlich noch starker Netzwerkverkehr überfordern ihn einfach.
Nichts Neues also und auch bei den Systemspezifikationen keine wirkliche Überraschung.
Am Ende muss ich feststellen, dass Slitaz Installationsmethode für so alte Rechner einfach sinnvoller und ressourcenschonender ist, in Sachen Abhängigkeiten auflösen und Mächtigkeit der Anwendung hinter Apt aber zurückfällt.
Das Kompilieren des Debian-Kernels mit der Slitaz-Config hat aber eines gezeigt. Es ist möglich auch Debian auf dem Toshiba Satellite 220 CS zu installieren, wenn der Kernel an 16 MB RAM angepasst ist.
Einen eigenen Debian Kernel mit Hilfe von Slitaz zu bauen war nicht schwer. Ab hier würde aber nun die wirkliche Bastelarbeit beginnen, indem man Kerneloptionen findet, die das System noch weiter optimieren.
Einfacher geht das alles indem man Slitaz direkt installiert. Zumindest bei so wenig RAM spart Slitaz einem eine Menge Ärger. Die Option Squeeze zu installieren wird zumindest auf diesem Modell keinen Vorteil bringen.
Halten wir mal fest: 1:0 für Slitaz, noch einige Möglichkeiten sind offen und in Sachen Kernelkompilierung wurde Wissen wieder aufgefrischt. 😉

Aufgaben für 2011

Es gibt noch ein paar Dinge, die ich dieses Jahr ausprobieren möchte. Dazu gehören sicherlich noch mehr als ein Dutzend verschiedener Konsolenprogramme, die versprechen alles Wichtige vom grafischen Desktop dorthin zurück zu holen, wo es hingehört, in die Shell.
Man sollte sich nur einmal die man Seite von surfraw durchlesen. 😛
Da gibt es zum einen Programme wie screen, elinks, rtorrent, charm, mplayer oder canto, die ich mittlerweile regelmäßig benutze und über die ich teilweise schon geschrieben habe und andere sehr gute Anwendungen, die mir gelegentlich aushelfen.
Das Ziel ist es mehr über die ressourcenschonenden Möglichkeiten der vielen Konsolenprogramme zu lernen, mit denen auch alte Rechner wieder mit Lichtgeschwindigkeit funktionieren. Das Ganze bekommt eine eigene Kategorie "Leben auf der Konsole".
Obwohl nicht alles neu war, habe ich doch erst durch K.Mandlas Blog Lust bekommen, mich mehr mit diesem Thema zu beschäftigen. Da er vier Jahre Vorsprung hat mit dieser Thematik, dürfte es schwer werden irgend etwas vollkommen Neues hinzuzufügen. Es sollte aber machbar sein innerhalb eines Jahres zumindest aufzuschließen 😉
Wer auch gerne zum "Maximalisten" werden will, sollte sofort einen Blick riskieren und die Seite aufrufen. Insbesondere der Softwareabschnitt liefert gute Ideen.
Wer ein vorkonfiguriertes Debian Lenny mit essentiellen Konsolenanwendungen sucht, dem sei auch K.Mandlas Sandbox-Version empfohlen. Der Torrent-Link befindet sich auf seiner Blogseite oder direkt bei linuxtracker.org herunterladen und in Qemu starten, leichter kann man sich nicht über seine Arbeitsumgebung informieren.
An Linux-Distributionen mangelt es ebenfalls nicht da draußen. Zumindest alle, die behaupten leichtgewichtig zu sein, wollte ich bis Jahresfrist ausprobieren. Insbesondere interessieren mich Distros, die eigene Akzente setzen und nicht nur die Desktopumgebung eines bekannten anderen Projektes austauschen.
Schließlich soll auch noch der ein oder andere Artikel über Spielen unter Linux erscheinen. Wer schon heute den komplette Überblick haben möchte, dem sei holarse-linuxgaming.de empfohlen.

Qemu spart Zeit und Geld

Qemu ist Freie Software, ein Emulator für verschiedene Prozessorarchitekturen und auch ein Virtualisierer und dabei in der Lage die komplette Hardware eines Computers zu emulieren. Insbesondere nützlich um Live-CDs und Betriebssysteme in dieser virtuellen Maschine auszuführen, die Installationen in eine Imagedatei zu schreiben und danach mit dd auf eine externe Festplatte zu übertragen.
Qemu löst für mich damit eine Menge Probleme. Ich kann verschiedene Software und Betriebssysteme spielend leicht testen, ohne dafür jedes mal ein neues Installationsmedium zu brennen oder gar jede Linux-Neuentdeckung auf einem separaten Computer installieren zu müssen.
Es gibt eine neue RC-Version des Debian-Installers und man möchte ihn sofort testen? Man wollte immer schon die neueste Anwendung für das Mobiltelefon mit ARM-Prozessorarchitektur ausprobieren, hat aber das entsprechende Gerät nicht parat. Mit Qemu auf jedem i386 PC möglich.
Welches Betriebssystem ist nun wirklich leichtgewichtig und ab wann beginnen die Probleme? Mit Qemu und der Option -m lässt sich bequem festlegen wie viel Arbeitsspeicher der virtuellen Maschine zugewiesen werden soll. Womit ich der Antwort auf meine Frage, wie viel RAM der Debian-Installer nun tatsächlich benötigt, etwas näher gekommen bin.
Nur um zu zeigen mit wie wenig Aufwand das geht, hier zwei Zeilen.

qemu-img create test.img 1G
qemu -hda test.img -cdrom debian-testing-i386-netinst.iso -boot d -m 32

Der erste Befehl erschafft ein Image namens test.img im Raw-Format mit der Größe 1 Gigabyte. Der zweite Befehl führt Qemu aus und definiert das Image als virtuelle Festplatte und das mit Rtorrent heruntergeladene Debian-Netinstall-ISO als CD-ROM-Laufwerk, von dem beim Start gebootet wird. Mit nur 32 MB Arbeitsspeicher gibt der Debian-Installer folgende Antwort.

Ich wusste das 64 MB RAM ausreichen um Debian Squeeze auf meinem Toshiba Portégé 3110 CT zu installieren und das 16 MB für den anderen Oldie zu wenig waren. Mit 32 MB RAM kommt man zumindest schon einmal in den "low memory"-Modus, die erste Hardwareerkennung und das Mounten der virtuellen CD-ROM funktioniert, doch dann gibt es eine Kernel Panic bei der Einrichtung der Netzwerkkarte, womit hier vorerst Schluss ist.
Interessanterweise ist die Warnung des Debian-Installers bitte mindestens 43 MB RAM zu installieren wirklich nur als absolutes Minimum zu verstehen. Denn auch mit soviel Arbeitsspeicher wird die virtuelle Netzwerkkarte in Qemu nicht automatisch erkannt und nach einer externen Treiber CD gefragt 🙄
Bei 64 MB RAM funktioniert alles einwandfrei und bei 16 MB RAM....

qemu: fatal: Trying to execute code outside RAM or ROM at 0x01449f40

beendet sich Qemu mit einer Fehlermeldung. Immerhin bestätigt das die Erfahrungen mit den anderen beiden Laptops. Was nun den Bereich zwischen 32 MB und 64 MB mit dem Debian-Installer angeht. Hier scheint zumindest etwas Glück gefragt zu sein, vielleicht sieht das ja bei "echter" Hardware wieder anders aus. 😛 Zumindest behauptet K.Mandla in seinem Blog eine Debian-Installation mit 32 MB RAM erfolgreich geschafft zu haben 😉

Meine Ubuntu-Philosophie

Als ich 2006 zum ersten Mal Ubuntu installiert hatte, war das vor allem der Neugier geschuldet. Eine Distribution, die die Stabilität von Debian bewahrt und gleichzeitig nach der Installation sofort für jeden Zweck einsatzbereit ist. Das klang verlockend. Heute wie damals steht Ubuntu für mich für die Attribute: Geringer Aufwand, Bequemlichkeit, einsteigerfreundlich, gute Hilfe im Internet und klare Ausrichtung.
Ubuntu zielt vor allem auf einfache Bedienbarkeit und leichte Installation ab. Gerade letzteres ist wohl das ausschlaggebende Argument, warum Ubuntu gerade für Neueinsteiger geeignet ist. Dabei geht oft unter, dass sich Ubuntu auch nach der Installation frei anpassen lässt und das beschränkt sich nicht nur auf das Aussehen. Fenstermanager oder sogar die komplette Desktopumgebung wechseln ist kein Problem. Wem das alles noch nicht reicht, dem steht sogar die händische Methode mit der Installation der Server-Version mit anschließender Auswahl der gewünschten Software zur Verfügung.
Aber natürlich gibt es auch einen Haken bei der Sache. Um diesen allgemeinen Komfort zu erreichen, installiert Ubuntu viele Anwendungen und Dienste, die nicht jeder unbedingt braucht und die das System träger als notwendig reagieren lassen. Und wer sich die Mühe macht Ubuntu von der Server-Version aus zur vollständigen Desktopumgebung zu konfigurieren, könnte auch direkt mit Debian weitermachen.
Ubuntus Charme macht für mich die Installation und der sofort betriebsbereite Gnome-Desktop aus. Dabei geht es mir vor allem um den neuesten proprietären Nvidia-Treiber, Virtualbox mit Gasterweiterungen und das ein oder andere Ubuntu-PPA wie z.B. Wine1.3. Nichts Besonderes also. Das was man auch bei anderen Distributionen manchmal genauso leicht, oft aber auch deutlich schwieriger einrichten kann.
Es ist dieses "out-of-the-box-alles-läuft"-Gefühl was ich an Ubuntu gut finde und das Ubuntu versucht Linux so einsteigerfreundlich wie möglich zu gestalten. Klar, andere unterstellen Ubuntu schon, dass es das Windows der Linuxwelt werden wolle. Ein ziemlich abwegiger Gedanke. Ein freies Betriebssystem bleibt immer frei und wem Ubuntus legitime Bemühungen durch Dienstleistungen Unternehmenskunden zu gewinnen und mit Ubuntu One auch normale Linuxbenutzer anzusprechen missfallen, na der kann Ubuntu One jederzeit deaktivieren oder sogar eine andere Distribution wählen.
Ich hoffe vielmehr, da kommt noch mehr. Ich will auch nicht, dass unfreie Software freie Software einschränkt. Aber diese Gefahr sehe ich einfach nicht. Ich würde es gut finden, wenn es mehr kommerzielle Angebote zu Linux geben würde, bei denen man sich für das beste Produkt entscheiden kann.
Ich denke Ubuntu ist wichtig für Linux, weil es mehr Menschen interessiert, die bisher Linux gleichgültig gegenüberstanden oder schlicht die Alternativen nicht kannten. Für viele ist tatsächlich die Installation die Hürde. Die meisten wissen es nicht oder können es sich nicht vorstellen, dass man ein Betriebssystem modular nach seinen Wünschen auch nach der Installation erweitern und anpassen kann. Ein X-Server existiert unter Windows nun mal nicht.
Wenn man ein paar Monate mit Ubuntu experimentiert hat, erkennt man schnell, dass die Installation im Vergleich zur regelmäßigen Benutzung des Betriebssystems nur ein sehr kurzer Zeitabschnitt ist. Insbesondere für ältere Rechner genügt diese rundum sorglos Packung dann schon nicht mehr.
Nun habe ich gestern so ausschweifend über die Desktopgestaltung geschrieben und das Ubuntu nicht braun sein muss.
Ubuntu_10.10_Core_Duo
Tja und nun das. Mein Ubuntu-Desktop auf dem Dual-Core-Rechner. Standardhintergrundbild von Ubuntu 10.10, Standard-Gnome-Panel oben und...AWN-Dock unten. Ich liebe eben die Abwechslung 🙄
Ehrlich gesagt sind verspielte Desktops nicht mein Ding. Überall blinkende Desklets, transparente Fenster, feurige Compizeffekte...alles sehr nett und ab und an schalte ich sie auch an, aber die meiste Zeit über interessiert mich nur, dass der Computer zuverlässig läuft. Die Anwendungen und die Bedienbarkeit stehen klar im Vordergrund.
Das ganze passt eben auch zu meiner oben beschriebenen Ubuntu-Philosophie. Schmerzfreie Installation und los gehts, das hat auch Vorteile. Würde der Rechner von heute auf morgen in Flammen aufgehen, ich müsste mir zwar neue Hardware kaufen, aber die Einrichtung des Betriebssystems wäre eine schlichte Ubuntu Standardinstallation.
Demnächst wieder mehr zu den eher unbekannteren Linuxdistributionen.