Kategorien
Technologie

KSM (Kernel SamePage Merging) in der Praxis

Das Gan­ze klingt zwar nach bösem Voo­doo, funk­tio­niert aber tat­säch­lich: Ker­nel Same­Page Mer­ging. Mög­lich ist das seit Ker­nel 2.6.32 und funk­tio­niert, ver­ein­facht dar­ge­stellt, so, dass der Ker­nel ver­sucht, iden­ti­sche Spei­cher­in­hal­te zu iden­ti­fi­zie­ren und die­se qua­si intern zu ver­lin­ken.

In der Pra­xis set­ze ich das auf einem von mir ver­wal­te­ten Clus­ter mit 14 Kno­ten ein, der mit der auf Vir­tua­li­sie­rung und Clus­te­ring spe­zia­li­sier­ten Linux-Dis­tri­bu­ti­on Prox­mox läuft. Prox­mox ver­eint KVM und con­tai­ner­ba­sier­te Vir­tua­li­sie­rung unter einem Dach, indem auf der einen Sei­te ein ange­pass­ter Linux-Ker­nel für die para­virt-ops-Schnitt­stel­le ein­ge­setzt und auf der ande­ren Sei­te OpenVZ für die con­tai­ner­ba­sier­te Vir­tua­li­sie­rung ver­wen­det wird. Der letz­te Arti­kel hier han­delt von die­sem The­ma. Prox­mox wird direkt auf jedem der Kno­ten instal­liert und danach über eine recht kom­for­ta­ble und moder­ne Web­ober­flä­che admi­nis­triert.

Zurück zum The­ma, KSM. Ich habe einen ent­spre­chen­den Ker­nel auf einem der Kno­ten instal­liert und betrei­be auf die­sem drei KVM-Maschi­nen mit Win­dows Ser­ver 2008 R2. Alle drei Maschi­nen haben 4 GB RAM zuge­wie­sen bekom­men, soll­ten also 12 GB RAM benö­ti­gen. Jetzt kommt der Knack­punkt: jeder die­ser Kno­ten ver­fügt nur über 8 GB phy­si­ka­li­schen Spei­cher. Rein rech­ne­risch klappt das also nicht, der Kno­ten müss­te anfan­gen zu swap­pen. In der gra­fi­schen Über­sicht des Kno­tens zeigt Prox­mox eine RAM-Aus­las­tung von theo­re­ti­schen 10 GB an, tat­säch­lich wer­den aber nur unge­fähr 3,75 GB ver­wen­det, über die Hälf­te des ver­bau­ten RAMs ist also noch frei. Da die Basis aller drei Instal­la­ti­on iden­tisch ist, kann der nun theo­re­tisch drei Mal beleg­te Spei­cher zu einem Bereich zusam­men­ge­fasst und somit zu 2/3 ein­ge­spart wer­den.

Das Ver­fah­ren hat natür­lich nicht nur Vor­tei­le: die auf­wän­di­ge­re Spei­cher­ver­wal­tung kos­tet CPU-Zeit. Wenn aber zu erwar­ten ist, dass die instal­lier­ten VMs haupt­säch­lich viel RAM aber wenig Rechen­leis­tung benö­ti­gen, spielt das eine eher unter­ge­ord­ne­te Rol­le. In mei­nem Fal­le kommt pro Kno­ten ein Intel Core2Quad Q9550 zum Ein­satz. CPU-Leis­tung ist also aus­rei­chend da.

Red­Hat hat es geschafft, auf einer Test­ma­schi­ne mit 16 GB RAM 52 (!) VMs mit Win­dows XP par­al­lel zu betrei­ben, jeder Maschi­ne war 1 GB vir­tu­el­les RAM zuge­ord­net wor­den. Noch mal in Zah­len: theo­re­tisch belegt wor­den wären 52 GB, prak­tisch genutzt aber nur 16 GB.

Kategorien
Apple Open Source Technologie

GeoTagging mit dem iPhone [Update]

Da ich trotz meh­re­rer Goog­le-Anfra­gen kei­ne brauch­ba­ren Ergeb­nis­se bekom­men habe, möch­te ich hier die Ergeb­nis­se mei­ner Recher­chen kund­tun:

Seit der aktu­el­len Ver­si­on kann iPho­to auch GPS-Tags aus Bil­dern aus­le­sen. iPho­ne-Besit­zer ken­nen das schon, die Auf­nah­me­or­te wer­den inner­halb der Appli­ka­ti­on wun­der­schön auf einer Kar­te ange­zeigt. Eine tol­le Sache, da man immer genau weiß, wo man sei­ne Bil­der auf­ge­nom­men hat. Aber das iPho­ne eig­net sich nun mal natur­ge­mäß nur sehr bedingt zum Foto­gra­fie­ren. Wer nun gern sei­ne Fotos einer regu­lä­ren Kame­ra mit Geo­Tags, also GPS-Koor­di­na­ten des Auf­nah­me­orts, ver­se­hen woll­te, kennt das Pro­blem viel­leicht: man muss sich einen GPS-Emp­fän­ger kau­fen (ab ca. 60,- EUR auf­wärts), des­sen Daten dann nach erfolg­ter Foto­ses­si­on zumeist im GPX-For­mat auf den Rech­ner kopie­ren, die Daten mit den Fotos ver­knüp­fen und sich dann end­lich zurück­leh­nen. Ich spiel­te schon mit dem Gedan­ken, mir einen sol­chen GPS-Emp­fän­ger zu kau­fen, bis mir dann irgend­wann ein­fiel, dass ich ja ein GPS-fähi­ges Gerät stän­dig am Kör­per tra­ge. Ja, mein heiß­ge­lieb­tes iPho­ne. Dass das Ding eine eier­le­gen­de Woll­milch­sau ist, wuss­te ich ja schon lan­ge, aber die­ser Fak­tor hat sich mit dem heu­ti­gen Tage ver­stärkt.

Also habe ich mich auf die Suche nach ver­füg­ba­ren Geo­tra­cking-Lösun­gen für das iPho­ne gemacht und bin auch auf einen gan­zen Hau­fen eben­die­ser gestos­sen. Die meis­ten unter­stüt­zen auch den Export ins GPX- oder KML-For­mat, sodass man die Daten dann nach­träg­lich mit den Fotos ver­bin­den kann. Kei­ne schlech­te Sache, nur etwas umständ­lich. Als kos­ten­lo­se Lösung sei hier GPS Tra­cker zu erwäh­nen, das an einen Web­ser­vice geknüpft ist. Auch einen inter­es­san­ten Ein­druck, obwohl ich es nicht ken­ne, macht Trails — GPS Log­buch, für 3,99 € sicher­lich auch einen Blick wert. Um die mit die­sen Anwen­dun­gen gewon­ne­nen Daten mit den Fotos zu ver­knüp­fen, bedarf es einer wei­te­ren Anwen­dung. Für den Mac habe ich die kos­ten­freie Anwen­dung myT­racks ent­deckt. Das Inter­face ist hübsch und über­sicht­lich und stammt außer­dem, wie der Rest der Anwen­dung auch, aus Deutsch­land. Win­dows-Benut­zer muss ich lei­der bit­ten, sich selbst auf die Suche zu machen 😉 Aber auch für Win­dows und selbst­ver­ständ­lich auch Linux soll­te es meh­re­re Lösun­gen geben.

Wer nur Geo­Tags in sei­ner Flickr-Bil­der­samm­lung braucht, dem sei Pho­to­Lo­catr wärms­tens emp­foh­len. Es tut näm­lich genau das und nur das, es taggt eure vor­han­de­nen Flickr-Bil­der. Erfor­der­lich für die Ver­wen­dung die­ses Pro­gramms ist also ein Flickr-Account und natür­lich eini­ge Bil­der, die sich in die­sem Account tum­meln, sonst ist es ziem­lich witz­los.

Der abso­lu­te Gewin­ner mei­ner Recher­chen ist aber unbe­dingt Geo­Log­Tag. Ins­be­son­de­re für Mac-Anwen­der ist es ein­fach die kom­for­ta­bels­te Lösung über­haupt. Es gin­ge zwar noch eine Stu­fe kom­for­ta­bler, aber dazu spä­ter mehr. Die Anwen­dung kos­tet schlap­pe 3,99 € und ersetzt nicht nur ein sepa­ra­tes Gerät, son­dern auch eine sepa­ra­te Soft­ware auf dem Mac. Für die Anwen­dung gilt das glei­che wie für alle ande­ren Geot­ag­ger: das Ding muss lau­fen, wäh­rend man sei­ne Fotos macht, logisch. Sobald die App mit der Auf­zeich­nung der Weg­punk­te begon­nen hat, kann man drauf los­knip­sen. Wenn man mit dem Foto­gra­fie­ren fer­tig ist, stoppt man die Auf­zeich­nung und kann die App wie­der schlie­ßen. Zuhau­se ange­kom­men, schliesst man wie gewohnt sei­ne Kame­ra an den Mac an, impor­tiert die Bil­der aber vor­erst nicht in iPho­to, son­dern mit dem Dienst­pro­gramm “Digi­ta­le Bil­der”. Als Ziel­ord­ner soll­te ein Ver­zeich­nis unter­halb des eige­nen “Öffentlich”-Ordners ange­ge­ben wer­den. Die­ser besag­te Ord­ner muss nun auch noch für Gäs­te zum Lesen und Schrei­ben frei­ge­ge­ben wer­den. Ist all dies erle­digt, star­tet man auf sei­nem iPho­ne die App und wählt die Opti­on “Geo­Tag”. Hier wird nun der soeben ange­leg­te und frei­ge­ge­be­ne Ord­ner aus­ge­wählt, die vor­han­de­nen Bil­der wer­den ange­zeigt und mit Geo-Infor­ma­tio­nen bestückt. Nach­dem die iPho­ne-App damit fer­tig ist, kann man die Bil­der ein­fach in iPho­to zie­hen und… das war’s. Die Bil­der sind mit Geo-Infor­ma­tio­nen getaggt wor­den und kön­nen nun in iPho­to unter “Orte” ange­zeigt wer­den. Mac-User sind hier also fein raus, weil sie mit iPho­to ’09 eine Anwen­dung haben, die Geo-Infor­ma­tio­nen aus­le­sen und ver­wer­ten kann und mit Geo­Log­Tag voll­au­to­ma­tisch Bil­der geot­ag­gen kön­nen. Per­fekt wäre nun nur noch, dass die App direkt auf die Bil­der­bi­blio­thek von iPho­to zugrei­fen kann, was aber aus diver­sen Grün­den wohl nie­mals gehen wird. Win­dows- und Linux-Nut­zer kön­nen zwar eben­falls mit­tels die­ser App ihre Fotos geot­ag­gen, aber nur über den Umweg des Exports der GPS-Daten und der anschlies­sen­den Kom­bi­na­ti­on bei­der Daten.

Ach ja, nicht ganz unwich­tig, ganz im Gegen­teil, ist die Tat­sa­che, dass Geo­Log­Tag kei­ne Online-Ver­bin­dung benö­tigt und somit auch im Aus­land kos­ten­frei nutz­bar ist 🙂 Die meis­ten ande­ren Lösun­gen, die ich ken­ne, gehen näm­lich online, um eine Kar­te oder ähn­li­ches anzu­zei­gen, was aber viel­leicht nicht unbe­dingt immer gewünscht ist. Im Fal­le eines Aus­lands­auf­ent­halts ist es sogar ganz und gar nicht gewünscht, weil das ganz schön ins Geld gehen kann.

Soll­ten euch wei­te­re emp­feh­lens­wer­te Apps bekannt sein, wäre ich für Kom­men­ta­re dank­bar. Auch Soft­ware­lö­sun­gen für die Kom­bi­na­ti­on und Ver­wen­dung der Geo-Daten für Win­dows und Linux wären sicher­lich inter­es­sant. Soll­te euch also ent­spre­chen­des bekannt sein, wäre ich für einen kur­zen Link in den Kom­men­ta­ren sehr dank­bar.

[Update]

Die ein­fachs­te Metho­de für Win­dows und Linux scheint die Ver­wen­dung von Pica­sa in Ver­bin­dung mit Goog­le Earth zu sein. Nach dem Import der KML- oder GPX-Daten in Goog­le Earth könnt ihr eure Fotos mit einem Klick in Pica­sa auf “Geo­tag” mit Tags ver­se­hen. Bei mei­nem Test mit der Win­dows-Ver­si­on funk­tio­nier­te das ein­wand­frei, die GPS-Koor­di­na­ten des Fotos stan­den nach dem Tag­gen in den EXIF-Infor­ma­tio­nen des Fotos.

Kategorien
Technologie

Einfache RMI-Anwendung mit Java

Da ich mich gera­de im Rah­men mei­nes Stu­di­ums mit RMI beschäf­ti­gen muss, dabei aber immer wie­der auf ver­al­te­te Tuto­ri­als gestos­sen bin, ab Ver­si­on 5 ver­hält sich RMI etwas anders als noch unter den Vor­gän­ger­ver­sio­nen, wer­de ich an die­ser Stel­le eine kur­zes und knap­pes Tuto­ri­al zum Erstel­len einer sehr simp­len RMI-Anwen­dung bereit­stel­len.

RMI steht für Remo­te Method Invo­ca­ti­on und bedeu­tet in etwa so viel wie “Ent­fern­ter Metho­den­auf­ruf”. Sinn und Zweck der Übung ist es, Daten zwi­schen Ser­ver und Cli­ent aus­zu­tau­schen, indem die Metho­den des jeweils ande­ren Sys­tems auf­ge­ru­fen wer­den. Gere­gelt wird all dies über ein Inter­face, in dem die zum ent­fern­ten Auf­ruf bestimm­ten Metho­den defi­niert wer­den. Mit die­sem Inter­face möch­te ich mei­ne Kurz­ein­füh­rung nun auch begin­nen:


package de.ulfklose.rmi.tryouts;

import java.rmi.Remote;
import java.rmi.RemoteException;

public interface ServerInterface extends Remote
{
int getValue() throws RemoteException;
}

In die­sem Inter­face, ServerInterface.java, haben wir nun eine Metho­de namens getVa­lue() defi­niert, die eine Remo­teEx­cep­ti­on wirft, soll­te beim Trans­fer der Daten irgend­et­was schief lau­fen. Die Imports sind ver­pflich­tend, da unser Inter­face Remo­te aus dem Packa­ge java.rmi exten­ded und die eben erwähn­te Remo­teEx­cep­ti­on wer­fen soll.

Jetzt machen wir uns an die Imple­men­tie­rung des Ser­vers. Hier erst mal der Code:


package de.ulfklose.rmi.tryouts;

import java.rmi.Naming;
import java.rmi.RemoteException;
import java.net.MalformedURLException;
import java.rmi.registry.LocateRegistry;
import java.rmi.registry.Registry;
import java.rmi.server.UnicastRemoteObject;

public class Server extends UnicastRemoteObject implements ServerInterface
{
private int value;
Server() throws RemoteException
{
super();
this.value = 3; // Der Variablen int den Integer-Wert 3 zu weisen
}

public int getValue() throws RemoteException
{
System.out.println("getValue() wurde aufgerufen"); // Server gibt bei jedem Client-Aufruf von getValue() diesen String aus
return this.value; // Server übermittelt aktuellen Wert von "value" an Client
}

public static void main(String[] args)
{
try {
LocateRegistry.createRegistry(Registry.REGISTRY_PORT); // Server an der Registry anmelden
System.out.println("Server registered, up and running."); // kurze Statusmeldung an der Konsole des Servers ausgeben
}
catch (RemoteException ex) {
System.out.println(ex.getMessage());
}
try {
Naming.rebind("Server", new Server()); // Server-Objekt mit dem Namen "Server" erstellen, dies ist nun der Server-Name
}
catch (MalformedURLException ex) {
System.out.println(ex.getMessage());
}
catch (RemoteException ex) {
System.out.println(ex.getMessage());
}
}
}

Das war’s schon. Wich­tig sind auch hier wie­der die Imports, ohne die wir kei­nen Zugriff auf die RMI-Klas­sen von Java hät­ten. Theo­re­tisch soll­te es auch genü­gen, java.rmi.* zu impor­tie­ren. Hier gehen wir etwas expli­zi­ter vor. In Zei­le 10 imple­men­tie­ren wir das Inter­face ServerInterface.java, außer­dem exten­den wir Uni­ca­stRe­mo­te­Ob­ject, wel­ches die Kom­mu­ni­ka­ti­on via Remo­te über­haupt erst ermög­licht. Über die Kom­men­ta­re im Code soll­te der Groß­teil eigent­lich klar sein. Näher erläu­tern möch­te ich an die­ser Stel­le noch die Zei­len 28 und 35:

In Zei­le 28 mel­den wir unse­re Ser­ver­ap­pli­ka­ti­on an der so genann­ten Regis­try an. Die dafür not­wen­di­gen Metho­den ste­hen im Packa­ge java.rmi.registry. zur Ver­fü­gung und wer­den für den hin­ter RMI arbei­ten­den Namens­dienst benö­tigt. Der über­ge­be­ne Port ist frei wähl­bar, muss aber im öffent­li­chen Bereich lie­gen, also darf Port 1000 und grö­ßer ver­wen­det wer­den. Wird kein Port expli­zit gesetzt, läuft der Ser­ver auf Port 1099 und nimmt dort Anfra­gen von Cli­ents ent­ge­gen. In Zei­le 35 ver­wen­den wir die­sen Namens­dienst und geben unse­rem Ser­ver einen kon­kre­ten Namen, über den der Cli­ent eine Ver­bin­dung zu die­sem auf­bau­en kann. In unse­rem Fall wird die Instanz der Klas­se Ser­ver an den Namen “Ser­ver” gebun­den. Logi­scher­wei­se darf auf einer Maschi­ne jeweils nur eine Instanz mit dem glei­chen Namen exis­tie­ren. Im nach­fol­gen­den sehen wir, wie der Cli­ent nun auf den Ser­ver zugrei­fen und die zur Ver­fü­gung gestell­ten Metho­den auf­ru­fen kann (Remo­te Method Invo­ca­ti­on).

package de.ulfklose.rmi.tryouts;

import java.rmi.Naming;

public class Client {

public static void main(String[] args) {
try {
ServerInterface server = (ServerInterface)Naming.lookup("//ip.v4.adresse.hierher/Server"); // Verbindung zu Server aufbauen, Name wird in Server.java definiert
System.out.println("Connection to server established.");
System.out.println("Folgender Wert wurde vom Server erhalten: " + server.getValue()); // Methodenaufruf von Server
}
catch (Exception ex)
{
System.out.println(ex.getMessage());
}
}
}

Die Klas­se Client.java impor­tiert den RMI-Namens­dienst in Zei­le 3. In der Main-Metho­de wird dann eine Instanz des Inter­faces erstellt. Über den Namens­dienst bau­en wir eine Ver­bin­dung zu unse­rem Ser­ver auf. Die­ser kann ent­we­der in einer wei­te­ren vir­tu­el­len Maschi­ne auf der glei­chen phy­si­ka­li­schen Maschi­ne lau­fen oder auf einem ande­ren Rech­ner im erreich­ba­ren Netz­werk. Soll die Kom­mu­ni­ka­ti­on über die Gren­zen des eige­nen Netz­werks erfol­gen, müs­sen even­tu­el­le Fire­walls ent­spre­chend kon­fi­gu­riert wer­den. In Zei­le 11 schluss­end­lich rufen wir die Metho­de getVa­lue() vom Ser­ver auf, die wir im Inter­face defi­niert haben. Beim Auf­ruf der Metho­de wird auf dem Cli­ent der aktu­el­le Wert (in unse­rem Fal­le 3) der Varia­blen “value” mit dem vor­an­ge­stell­ten String (Zei­le 12) aus­ge­ge­ben, der Ser­ver wie­der­um gibt auf sei­ner Kon­so­le den Text “getVa­lue() wur­de auf­ge­ru­fen” aus.

Ja, rich­tig, das war es schon. Jetzt suche ich gera­de nach span­nen­den Sachen, die ich mit die­sen Erkennt­nis­sen noch anstel­len kann 😀 Soll­te jemand eine tol­le Idee haben, immer her damit. Und ich hof­fe, dem einen oder ande­ren eine leicht ver­ständ­li­che Anlei­tung über die Grund­la­gen von RMI unter Java gege­ben zu haben.

Ich habe den kom­plet­ten Quell­code aller drei Klas­sen auch bei attachr.com geparkt, viel­leicht sind die dort bes­ser les­bar, falls jemand hier Pro­ble­me haben soll­te:

ServerInterface.java

Server.java

Client.java

Kategorien
Apple Open Source Technologie

Time Machine und FreeNAS

Nach eini­gen Stun­den Web­re­cher­che und tes­ten habe ich nun end­lich eine Mög­lich­keit gefun­den, zuver­läs­sig Back­ups via Time Machi­ne auf ein Gerät mit dem NAS-Sys­tem Free­NAS zu rea­li­sie­ren.

Wie viel­leicht bekannt ist, hat Apple mit Mac OS X 10.5.2 die Mög­lich­keit offi­zi­ell gestri­chen, Back­ups mit­tels Time Machi­ne auf Netz­werk­vo­lu­mes vor­zu­neh­men, die kei­ne Time Cap­su­le bezie­hungs­wei­se Air­Port Extre­me mit ange­schlos­se­ner USB-Fest­plat­te sind. Das ist inso­fern ärger­lich, dass Time Cap­su­le mit maxi­mal 1 TB erhält­lich und die Geschwin­dig­keit der Daten­über­tra­gung auf­grund der inter­nen USB-Anbin­dung der Fest­plat­te eher nied­rig ist. Ins­be­son­de­re das initia­le Back­up dau­ert eine hal­be Ewig­keit.

Wer Free­NAS nicht kennt: es han­delt sich dabei um ein Sys­tem, dass auf Free­BSD basiert, also ein UNIX ist, und spe­zi­ell für den Ein­satz auf NAS-Sys­te­men zuge­schnit­ten ist. Die Kon­fi­gu­ra­ti­on erfolgt hier­bei voll­stän­dig über eine über­sicht­li­che Web­ober­flä­che. Die­ses Pro­jekt basiert auf M0n0wall, einer eben­falls auf Free­BSD basie­ren­den inte­grier­ten Fire­wall-Lösung. Die Instal­la­ti­on von Free­NAS kann auf meh­re­re Arten und Wei­sen erfol­gen. So ist es mög­lich, das Sys­tem direkt von einer CD-ROM zu star­ten und die Kon­fi­gu­ra­ti­ons­da­tei­en auf einem MS-DOS-for­ma­tier­ten Daten­trä­ger, wie einem USB-Stick, einer CF-Kar­te oder einer Flop­py abzu­spei­chern. Wer, so wie ich, kein opti­sches Lauf­werk in sei­nem NAS hat, kann das Sys­tem auch auf einem USB-Stick oder einer Fest­plat­te instal­lie­ren. Ich habe die Instal­la­ti­on auf einem USB-Stick gewählt. Mein NAS star­tet also von die­sem Stick und spei­chert sämt­li­che Kon­fi­gu­ra­ti­ons­da­ten auf eben­die­sem. Vor­aus­set­zung dafür ist aber, dass das BIOS das Star­ten von USB-Gerä­ten erlaubt. Außer­dem muss der USB-Stick vor der Instal­la­ti­on mit FAT oder FAT32 for­ma­tiert wer­den und darf erst nach (!) dem Start der Live-CD ange­stöp­selt wer­den. Danach soll­te die Instal­la­ti­on ein­wand­frei lau­fen. Mein Eigen­bau-NAS ver­fügt über ein Board mit Via C7 1 GHz, 1 GB RAM und zwei 1 TB gro­ßen Strom­spar-Fest­plat­ten von Wes­tern Digi­tal. Außer­dem steckt ein 1‑G­bit-NIC von Intel in der Maschi­ne.

Nach der Instal­la­ti­on von Free­NAS muss zuerst die IP des oder der Netz­werk­schnitt­stel­len gesetzt wer­den. Das geht ganz ein­fach über das Text­me­nü des Sys­tems. Jetzt kann man sich von einem belie­bi­gen Rech­ner aus über einen belie­bi­gen Web­brow­ser mit dem NAS ver­bin­den und die wei­te­re Kon­fi­gu­ra­ti­on vor­neh­men. Dazu gibt man ein­fach die soeben ein­ge­ge­be­ne IP-Adres­se in das Adress­feld des Brow­sers ein. Der Benut­zer­na­me lau­tet in der Vor­ein­stel­lung admin, das Kenn­wort free­nas. Free­NAS ver­fügt in der aktu­el­len Ver­si­on über die fol­gen­den Diens­te:

  • CIFS/SMB
  • FTP
  • TFTP
  • SSH
  • NFS
  • AFP
  • Rsync
  • Uni­son
  • iSCSI Tar­get
  • UPnP (Medi­a­ser­ver)
  • iTunes/DAAP
  • Dyna­mic DNS
  • SNMP
  • USV
  • Web­ser­ver
  • Bit­Tor­rent (Web­ver­si­on von Trans­mis­si­on)

All die­se Diens­te las­sen sich äußerst bequem über die Web­ober­flä­che kon­fi­gu­rie­ren, nur in den sel­tens­ten Fäl­len besteht die Not­wen­dig­keit, per Text­edi­tor Hand an irgend­wel­che Kon­fi­gu­ra­ti­ons­da­tei­en zu legen. Ich selbst nut­ze vie­le die­ser Diens­te und alle lau­fen ein­wand­frei.

Nach der Instal­la­ti­on muss man zunächst die verbaute(n) Festplatte(n) für die Benut­zung vor­be­rei­ten. Ich gehe davon aus, dass die Fest­plat­ten leer sind und noch über kein Datei­sys­tem ver­fü­gen. Free­BSD ver­wen­det GEOM zur Erstel­lung und für das Manage­ment von RAID-Sys­te­men, die sich eben­falls ganz bequem über die Web­ober­flä­che ein­rich­ten las­sen. Da ich eine Wei­le gebraucht habe, um die kor­rek­te Rei­hen­fol­ge für die Erstel­lung eines RAID her­aus­zu­fin­den, hier eine klei­ne Anlei­tung:

  1. Es müs­sen die Fest­plat­ten über den Menü­punkt Fest­plat­ten -> Manage­ment hin­zu­ge­fügt wer­den. Wel­che Ein­stel­lun­gen ihr hier­bei wählt, bleibt euch über­las­sen, nur muss das Datei­sys­tem auf Soft­ware RAID ein­ge­stellt wer­den, damit die Plat­ten nach­her einem RAID-Ver­bund hin­zu­ge­fügt wer­den kön­nen.
  2. Über den Menü­punkt Fest­plat­ten -> Soft­ware RAID fügt ihr dann die Plat­ten zu eurem RAID-Ver­bund hin­zu. Wel­chen RAID-Modus ihr hier­bei wählt, ist euch über­las­sen. GEOM Stripe/Mirror/Raid5 ist die alt­her­ge­brach­te Lösung unter Free­BSD zur Erstel­lung von RAIDs, GEOM Vinum ist recht neu, soll aber laut diver­ser Web­quel­len sta­bil sein. Ich habe GEOM Vinum gewählt.
  3. Danach müsst ihr euer RAID for­ma­tie­ren, das geht ganz ein­fach über den Menü­punkt Fest­plat­ten -> For­ma­tie­ren. Unter “Fest­plat­te” wählt ihr euer RAID aus, als Datei­sys­tem soll­tet ihr auf jeden Fall das nati­ve Datei­sys­tem unter UNIX, UFS, wäh­len. Alle ande­ren Datei­sys­te­me wer­den nicht offi­zi­ell unter­stützt.
  4. Unter Fest­plat­ten -> Ein­hän­ge­punkt wählt ihr nun einen Namen für den Mount­point. Die­ser spielt für die spä­te­re Benut­zung kaum eine Rol­le, Datei­frei­ga­ben via CIFS bzw. AFP wer­den unter die­sem Namen im Explo­rer bzw. Fin­der ange­zeigt. Der Par­ti­ti­ons­typ soll­te bei einem neu ange­leg­ten RAID auf GPT ste­hen, das Datei­sys­tem wählt ihr ent­spre­chend eurer Ein­stel­lung aus 3., in mei­nem Fal­le also UFS. Alle wei­te­ren Ein­stel­lun­gen könnt ihr, sofern ihr es nicht bes­ser wisst, auf Stan­dard belas­sen.

Nach­dem ihr euer RAID für die Benut­zung erstellt habt, könnt ihr euch nun an die Kon­fi­gu­ra­ti­on der von euch benö­tig­ten Diens­te machen. Die Dia­lo­ge sind selbst­er­klä­rend, des­we­gen fol­gen hier auch kei­ne wei­te­ren Erläu­te­run­gen von mir. Für vie­le der Diens­te macht es aber Sinn, einen loka­len Benut­zer zu erzeu­gen, mit dem ihr euch spä­ter am NAS anmel­det. Dies geht über den Menü­punkt Zugriff -> Benut­zer & Grup­pen. Soll­tet ihr spä­ter Zugriff per SSH auf die Maschi­ne wün­schen, ach­tet dar­auf, dass ihr den Haken ganz unten, Vol­ler Kom­man­do­zei­len­zu­gang für Benut­zer!, setzt. Außer­dem soll­te euer Benut­zer Mit­glied der Grup­pe wheel sein, wenn ihr euch mit dem Befehl “su root” zum Root-Benut­zer machen wollt. Im Nor­mal­fall soll­te das nicht nötig sein, aber man kann ja nie wis­sen 😉

Nun zu Time Machi­ne: wenn man schon ein NAS mit rund 2 TB Fest­plat­ten­ka­pa­zi­tät sein Eigen nennt, das auch noch per Giga­bit im Heim­netz ange­bun­den ist, macht es durch­aus Sinn, sei­ne Time Machi­ne-Back­ups auf die­sem NAS abzu­le­gen. Dank der Anlei­tung von Alper Ise­ri war das glück­li­cher­wei­se nicht wei­ter schwie­rig. Wie ein­gangs erwähnt, mag Apple das aber nicht, des­we­gen muss man OS X erst mal mit dem Ter­mi­nal­be­fehl

defaults wri­te com.apple.systempreferences TMShowUn­sup­por­ted­Net­work­Vo­lu­mes 1

dazu über­re­den, auch nicht-unter­stütz­te Netz­werk­vo­lu­mes für Time Machi­ne zu akzep­tie­ren. Tes­tet danach gleich mal, ob es funk­tio­niert, indem ihr Time Machi­ne über die Sys­tem­ein­stel­lun­gen öff­net und ein Volu­me aus­wählt. Taucht euer NAS dort auf, ist soweit schon mal alles in But­ter. Wenn ihr jetzt aber ver­sucht, eine Siche­rung auf eben­die­ses Gerät vor­zu­neh­men, wer­det ihr lei­der ent­täuscht, Time Machi­ne bricht mit einer Feh­ler­mel­dung ab. Um die­ses Pro­blem zu behe­ben, gebt ihr fol­gen­des Kom­man­do im Ter­mi­nal ein:

hdiutil crea­te ‑size $GRÖSSEg ‑fs HFS+J ‑type SPARSEBUNDLE ‑vol­na­me “iMac Back­up” COMPUTERNAME_MACADRESSE.spar­se­bund­le

GRÖSSE muss hier­bei durch eine Zahl ersetzt wer­den. Das klei­ne g steht für Giga­byte. Der hier ange­ge­be­ne Wert bestimmt die Maxi­mal­grö­ße des mit die­sem Befehl ange­leg­ten Images. Über den Schal­ter ‑fs wird fest­ge­legt, dass als Datei­sys­tem für die­ses Image HFS Jour­nal­ed ver­wen­det wer­den soll. ‑vol­na­me legt den Namen des Images fest, der im Fin­der ange­zeigt wer­den soll, also bei­spiels­wei­se “iMac Back­up”. Den Com­pu­ter­na­men fin­det ihr den Sharing-Ein­stel­lun­gen in den Sys­tem­ein­stel­lun­gen von Mac OS. Soll­tet ihr Leer­zei­chen in eurem Com­pu­ter­na­men ver­wen­den, müsst ihr nach dem jewei­li­gen Wort einen Back­slash, \ (Tas­ten­kom­bi­na­ti­on Shift-Alt‑7), ein­ge­ben. Also zum Bei­spiel “Ulfs\ iMac”. Die MAC-Adres­se bekommt ihr am Ter­mi­nal mit­tels des Befehls “ifcon­fig” oder über Netz­werk in den Sys­tem­ein­stel­lun­gen. Die MAC-Adres­se muss hier­bei ohne die Dop­pel­punk­te ange­ge­ben wer­den. Da die­ses Back­up an die MAC-Adres­se gebun­den ist, soll­tet ihr nicht ver­su­chen, das Back­up über eine ande­re Netz­werk­schnitt­stel­le zu ver­wen­den. Habt ihr also bei der Erstel­lung des Images eure LAN-Schnitt­stel­le ver­wen­det, ver­sucht bit­te nicht spä­ter die WLAN-Schnitt­stel­le zu benut­zen. Soll­te alles geklappt haben, kopiert ihr nun die­ses Spar­se-Bund­le in das Haupt­ver­zeich­nis eurer Netz­werk­frei­ga­be. Soll­tet ihr AFP ein­ge­rich­tet haben, dürf­te euer Fin­der euch das Sys­tem auch gleich anzei­gen und ihr könnt euch ver­bin­den. Wich­tig ist, dass das Image direkt ins Haupt­ver­zeich­nis kopiert wird, Unter­ver­zeich­nis­se wer­den nicht unter­stützt. Das funk­tio­niert natür­lich auch für meh­re­re Macs.

Jetzt könnt ihr Time Machi­ne anwei­sen, dass es euer NAS als Back­up-Volu­me ver­wen­den soll. Kurz nach dem Start des Back­ups dürf­te Mac OS das von euch erstell­te Image moun­ten und mit der Siche­rung begin­nen. Der Benut­zer­na­me und das Kenn­wort, das Time Machi­ne beim ers­ten Mal haben möch­te, ent­spricht dem Benut­zer­na­men und dem zuge­hö­ri­gen Kenn­wort des Benut­zers, den ihr auf dem NAS ange­legt habt.

Soll­tet ihr in eurem Log fol­gen­den Feh­ler bekom­men

afpd[pid]: bad func­tion 4F

habt ihr auch schon den Grund dafür gefun­den, dass Time Machi­ne sein Image nicht selbst erstel­len kann. Laut einem Bei­trag in den Free­NAS-Foren ist die­se Funk­ti­on in der neta­talk-Ver­si­on von Free­NAS noch nicht imple­men­tiert. Die­se Mel­dung könnt ihr aber getrost igno­rie­ren, das Image besteht ja bereits. In Zukunft soll die­se Funk­ti­on aber nach­ge­rüs­tet wer­den.

afpd[pid]: bad func­tion 4C

ist ein Feh­ler­code, den Spot­light gene­riert. Auch den könnt ihr igno­rie­ren.

Kategorien
Software Technologie

Die Raubkopier-Problematik

Viel­leicht kennt ihr das auch, ihr seid etwas bewan­der­ter in der The­ma­tik Com­pu­ter und wer­det von Zeit zu Zeit immer wie­der gefragt “Woher bekom­me ich eigent­lich Pro­gramm XY?”. Mei­ne Stan­dard­ant­wort lau­tet mitt­ler­wei­le “Bei amazon.de oder auf der Her­stel­l­er­home­page.” Zumeist die Stan­dard­re­ak­ti­on dar­auf ist “Ja, aber da kos­tet das doch Geld.”. Ach, wirk­lich? Natür­lich kos­tet das Geld. Glei­ches pas­siert natür­lich auch gern bei Fil­men, Musik, Com­pu­ter­spie­len und wei­te­ren digi­ta­len Inhal­ten. Die Men­ta­li­tät vie­ler, für digi­ta­le Inhal­te, egal wel­cher Art, kein Geld zah­len zu wol­len kotzt mich mitt­ler­wei­le rich­tig an. Liegt viel­leicht auch dar­an, dass ich wenigs­tens bei Soft­ware mitt­ler­wei­le halb­wegs abschät­zen kann, wie viel Zeit es kos­tet, die­se zu ent­wi­ckeln. Dass man dafür Geld haben möch­te ist doch voll­kom­men ver­ständ­lich, oder?

Auf­merk­sam bin ich gera­de wie­der auf das The­ma gewor­den, weil ich heu­te gele­sen habe, dass mitt­ler­wei­le Raub­ko­pien von rund 5.000 iPho­ne-Appli­ka­tio­nen auf ein­schlä­gi­gen Sei­ten im Netz kur­sie­ren. Es war natür­lich nur eine Fra­ge der Zeit, bis auch die­se Platt­form von den Raub­ko­pie­rern belegt wird. Aber mal ehr­lich: ist es nötig bei Prei­sen, die im Nor­mal­fall zwi­schen 0,79 € und 3,99 € lie­gen, Raub­ko­pien zu ver­wen­den? Kann jemand, der ein iPho­ne besitzt wirk­lich so arm sein, dass er sich kei­ne 79 Cent leis­ten kann? Dann soll­te er viel­leicht kein iPho­ne ver­wen­den, und das Geld in wich­ti­ge­re Sachen inves­tie­ren.

Wenn man mal einen Blick auf die Raub­ko­pie­rer­sze­ne im PC-Bereich wirft, sieht man, was das für Früch­te trägt: es wer­den Anti-Kopier­schutz­maß­nah­men ent­wor­fen, die im Zwei­fels­fal­le das hal­be Betriebs­sys­tem aus­knip­sen. Wenn sich die­ses Pro­blem auch auf der Apple-Platt­form mani­fes­tiert, wird Apple zum Schutz der Ent­wick­ler irgend­wann ernst machen und die Platt­form kom­plett dicht machen müs­sen. Und das wäre wirk­lich ärger­lich. Zu ver­dan­ken hät­ten wir es dann dem aso­zia­len Teil der Bevöl­ke­rung, der der Mei­nung ist, dass es voll­kom­men ok sei, Soft­ware zu kopie­ren.

Ver­steht mich nicht falsch: es gibt tat­säch­lich Bevöl­ke­rungs­grup­pen, bei denen ich abso­lu­tes Ver­ständ­nis dafür habe, dass die Soft­ware raub­ko­pie­ren. Schü­ler bei­spiels­wei­se, Arbeits­lo­se mit Hartz IV. Denen fehlt das Geld wirk­lich, um es in digi­ta­le Inhal­te zu ste­cken. In den meis­ten Fäl­len wenigs­tens. Aber jeder, der einer gere­gel­ten oder selbst­stän­di­gen Tätig­keit nach­geht, soll­te sich den Kauf eines Films, eines Musik­al­bums oder eines Spiels wohl gera­de noch so erlau­ben kön­nen. Lei­der sitzt die Ein­stel­lung in den Köp­fen vie­ler Leu­te so tief, für digi­ta­le Inhal­te ein­fach kein Geld bezah­len zu wol­len, dass mir immer abso­lu­tes Unver­ständ­nis ent­ge­gen­ge­bracht wird, wenn ich die Fra­ge in den Raum wer­fe, ob es nicht mög­lich ist, 9,99 € für ein Album zu bezah­len oder 30,- € für ein Com­pu­ter­spiel (die rich­ti­gen Quel­len, bei­spiels­wei­se eBay UK, vor­aus­ge­setzt). “Wie­so, ich kann es doch auch kos­ten­los krie­gen.” Furcht­bar. Bei die­sen Beträ­gen zu Raub­ko­pien zu grei­fen ent­zieht sich mei­ner Ver­ständ­nis. Wenn ein Stu­dent für eine Anwen­dung für eine Vor­le­sung braucht, die selbst in der Stu­den­ten­ver­si­on, so die­se über­haupt exis­tiert, meh­re­re Hun­dert Euro kos­tet und die­se kopiert, dann kann ich das ver­ste­hen. Nicht ver­ste­hen kann ich die Her­stel­ler an die­ser Stel­le, da denen klar sein soll­te, dass nur weni­ge Stu­den­ten meh­re­re Hun­dert Euro für Soft­ware locker machen kön­nen. Für vie­les fin­det man mitt­ler­wei­le kos­ten­lo­se Alter­na­ti­ven, bei Anwen­dun­gen wie 3ds Max wird es hin­ge­gen eher schwer. Klar, da gäbe es Blen­der, aber wenn für ein Labor expli­zit das 3ds Max gefor­dert wird, kann ich durch­aus nach­voll­zie­hen, dass bestimmt 99 % der Stu­den­ten zu Raub­ko­pien grei­fen, was nicht heißt, dass ich es befür­wor­te, aber ver­ste­hen kann ich es.

Vie­len scheint abso­lut nicht klar zu sein, dass gera­de klei­ne Soft­ware­stu­di­os, Musi­ker und Fil­me­ma­cher auf das Geld aus den Ver­käu­fen ange­wie­sen sind. Natür­lich ver­die­nen meist auch ande­re ordent­lich mit, was aber nichts dar­an ändert, dass die­sen Künst­lern das Geld nach­her fehlt, um wei­ter zu machen, was die krea­ti­ve Viel­falt am Markt stark ein­schränkt und bei­spiels­wei­se im Musik­be­reich zu Aus­wüch­sen wie “Deutsch­land sucht den Super­star” führt. Indi­vi­du­el­le Krea­ti­vi­tät zahlt sich irgend­wann nicht mehr aus und wird ein­ge­stampft, was irgend­wann zu einem noch schlim­me­ren Ein­heits­brei führt, als wir ihn jetzt schon haben. Noch gibt es unab­hän­gi­ge, die mit ihrer Krea­ti­vi­tät Geld ver­die­nen wol­len, noch… Wenn sich in den Köp­fen der Leu­ten nicht bald etwas ändert, wer­den wir noch Ewig­kei­ten auf die digi­ta­le Revo­lu­ti­on war­ten müs­sen und kost­spie­li­ge Inno­va­tio­nen wie digi­ta­les Kino und voll­di­gi­ta­les Fern­se­hen wer­den erst in sehr fer­ner Zukunft rea­li­siert, weil immer das Damo­kles­schwert der Raub­ko­pie­rer über sol­chen Inves­ti­tio­nen schwebt. Denn sobald Medi­en in Nul­len und Ein­sen gelie­fert wer­den, wird das Kopie­ren leich­ter und die Kopien qua­li­ta­tiv hoch­wer­ti­ger.

Dass den gro­ßen Kino­ket­ten die Besu­cher aus­blei­ben, ist auf­grund der stark anwach­sen­den Raub­ko­pie­rer­sze­ne kein Wun­der. Teil­wei­se tra­gen die­se natür­lich auch selbst die Schuld dar­an, rund 8,- € für eine Kino­kar­te fin­de ich schon ganz schön frech, zumal Pop­corn und Getränk meist wei­te­re 5,- bis 7,- € Auf­preis ver­ur­sa­chen. Wenn ein Kino­be­such bis zu 15,- € pro Per­son kos­tet, über­le­gen es sich natür­lich vie­le, die Fil­me lie­ber her­un­ter zu laden und auf dem hei­mi­schen Groß­bild-TV zu genie­ßen, da man sich dort auch der 30-minü­ti­gen-Wer­be­be­rie­se­lung ent­zie­hen kann. Nach­voll­zieh­bar, aber dumm. Denn auch hier blei­ben indi­vi­du­el­le Krea­ti­ve auf der Stre­cke, die gro­ßen Stu­di­os kön­nen sol­che Aus­fäl­le zumeist kom­pen­sie­ren.

Ich könn­te jetzt noch vie­le wei­te­re Bei­spie­le auf­füh­ren, möch­te es aber dabei belas­sen. Mein Resü­mee: Die net­te Ein­blen­dung vor einem jeden Kino­film, dass Raub­ko­pien auch Dieb­stahl am eige­nen Geld­beu­tel sind, stimmt abso­lut. Aber nicht nur das, es schränkt auch die media­le Viel­falt ein, Neu­pro­duk­tio­nen kön­nen häu­fig nur noch von gro­ßen Stu­di­os betrie­ben wer­den, Inno­va­tio­nen blei­ben zu oft auf der Stre­cke. Also lie­be Leu­te, schaut doch mal in eure Geld­beu­tel und prüft, ob ihr nicht viel­leicht doch 20,- bis 30,- € im Monat für digi­ta­le Inhal­te auf­brin­gen könnt. Kein arbei­ten­der Mensch hat im All­ge­mei­nen die Zeit, sich 10 Fil­me, 40 neue iPho­ne-Anwen­dun­gen und 20 neue Video­spie­le im Monat rein­zu­zie­hen. Ein wenig mehr Selek­ti­on beim Kon­sum und schon kön­nen jede Men­ge Ori­gi­na­le die hei­mi­schen Rega­le und Fest­plat­ten zie­ren. Außer­dem hat man das Gefühl, etwas gutes getan zu haben. So geht es mir wenigs­tens…

Kategorien
Technologie

Mehr Flickr-Besucher?

Hat jemand eine Idee, wie man mehr Flickr-Besu­cher bekom­men kann? Mei­ne Sta­tis­ti­ken find ich ganz schön mau. Auch wenn schon zwei mei­ner Bil­der für die Ver­wen­dung in Pro­jek­ten ange­fragt wur­den, bei einer Anfra­ge ist sogar tat­säch­lich was dar­aus gewor­den, bezüg­lich der ande­ren habe ich nichts mehr gehört.

Statistiken | flickr.com
Uploa­ded with plasq’s Skitch!

Für Tipps wäre ich dank­bar 🙂

Kategorien
Spiele Technologie

Konsolenkrieg

Ja, ich habe sie alle, alle drei aktu­el­le Spie­le­kon­so­len ste­hen in mei­nem Wohn­zim­mer. In die­sem Arti­kel möch­te ich die teil­wei­se glei­chen, teil­wei­se aber doch sehr unglei­chen Sys­te­me gegen­ein­an­der antre­ten las­sen.

Ange­fan­gen hat alles mit der Xbox 360 bei mir. Die habe ich vor eini­ger Zeit recht güns­tig bei einem Spie­le­händ­ler in den Schlos­s­ar­ka­den in Braun­schweig erste­hen kön­nen. Der Preis war wirk­lich unver­schämt nied­rig, zumal der Kon­so­le noch ein Spiel, Ghost Recon Advan­ced War­figh­ter 2, bei­lag. Also zück­te ich ruck­zuck mei­ne Kre­dit­kar­te und die Kon­so­le war mein. Lei­der ver­staub­te sie dann auch recht schnell wie­der, da ich kei­nen HD-fähi­gen Fern­se­her mein Eigen nann­te und dadurch begrün­det Spie­le mit not­wen­dig vie­len Details wie Shoo­ter, also bei­spiels­wei­se das bei­geleg­te Ghost Recon, zur Pixel­sup­pe ver­ka­men, der Spiel­spaß hielt sich dadurch stark in Gren­zen. Anfangs reiz­ten mich noch die damals in nicht son­der­lich gro­ßer Anzahl ver­füg­ba­ren Arca­de-Games aus dem Xbox Live Store, aber auch die ver­lo­ren schnell an Reiz.

Eini­ge Mona­te spä­ter kam dann die Wii von Nin­ten­do ins Haus. Natur­ge­mäß, sie zählt nicht direkt zu den Next­Gen-Kon­so­len, waren und sind alle Spie­le auch auf einem PAL-Fern­se­her spiel­bar, die maxi­ma­le Auf­lö­sung beträgt 480p. Das inno­va­ti­ve Steue­rungs­kon­zept und die wit­zi­gen Spie­l­eideen tru­gen ihren Teil dazu bei, dass die Kon­so­le in den ers­ten Wochen qua­si täg­lich gequält wur­de. Aber dann stell­te sich lei­der das Wii-Syn­drom ein: Man­gels Nach­schub an wirk­lich inter­es­san­ten Titeln wur­de sie schnell zum Staub­fän­ger.

Dann kam mein HD-Fern­se­her. Dadurch wur­de die Xbox reak­ti­viert, das Spie­len mit dem Gerät mach­te auf ein­mal Spaß. So viel Spaß sogar, dass ich mei­nen Spie­le-PC ver­kauf­te und mir dafür eini­ge neue Titel für die Xbox hol­te. Spie­le kom­men auf einem Bild­schirm mit 107 cm Dia­go­na­le doch anders rüber als auf einem Gerät mit 56 cm. Auch das im Ver­gleich zum PC sehr simp­le Spie­len von Mul­ti­play­er­spie­len übers Inter­net trug sei­nen Teil dazu bei, dass die Kon­so­le den Staub voll­stän­dig ver­brann­te und fast täg­lich in Gebrauch war. Die Anzahl mei­ner Mit­spie­ler war zwar ver­gleichs­wei­se gering, Spaß gemacht hat es trotz­dem. Hin­zu kam noch, dass die Aus­wahl im Xbox Live Store mitt­ler­wei­le so groß und abwechs­lungs­reich war, dass man auch hier dut­zen­de Euro las­sen konn­te und dabei auf vie­le sehr inter­es­san­te Spiel­kon­zep­te stieß. End­lich mal was neu­es im Spie­le­ein­heits­brei, abseits von Shoo­tern, Stra­te­gie- und Rol­len­spie­len. Vor­aus­set­zung hier­für ist zwar ein kos­ten­pflich­ti­ger Gold-Account für Xbox Live, des­sen Kos­ten hal­ten sich aber mit 60,- € jähr­lich stark in Gren­zen. Dafür hat man Zugriff auf alle Demos und Arca­de-Titel, die für den deutsch­spra­chi­gen Raum frei­ge­ge­ben wur­den. Außer­dem lässt sich eben sehr bequem online mit sei­nen Freun­den oder auch unbe­kann­ten dad­deln.

Vor weni­gen Mona­ten war es dann so weit, ich woll­te auch end­lich auf den Blu-Ray-Zug auf­sprin­gen, ein Play­er muss­te her. Da ich von den Play­sta­ti­on 2‑Spielen God of War und God of War 2 total begeis­tert war, kam eigent­lich nur die Play­sta­ti­on 3 in Fra­ge, zumal sie auch den Vor­teil hat, dass man mit die­ser Kon­so­le 100%ig jede zukünf­ti­ge Blu-Ray-Genera­ti­on mit­ma­chen kann, da Updates natur­ge­mäß ein­fa­cher ein­zu­spie­len sind als bei einem Stan­da­lo­ne-Play­er. Der Kon­so­le lag das, bis­her lei­der qua­si unge­spiel­te, Spiel “Litt­le Big Pla­net” bei. Kauf­spie­le fin­den sich bis­her kei­ne in mei­nem Regal, da noch zwei Spie­le für die Xbox 360 auf ihren Ein­satz war­ten, aber ein paar Demos habe ich mir natür­lich schon ange­schaut. Schön find ich, dass sie lei­ser ist als die Xbox und WLAN mit­bringt.

So, und jetzt zum eigent­li­chen Titel die­ses Arti­kels. Jeder von euch, der gele­gent­lich auf einer belie­bi­gen IT-Sei­te (hei­se online, Golem.de, Com­pu­ter­Ba­se, etc.) unter­wegs ist, wird das ken­nen: Glau­bens­krie­ge zwi­schen den Anhän­gern von Betriebs­sys­te­men, Mobil­te­le­fo­nen und natür­lich auch Spie­le­kon­so­len. Ich hof­fe, hier halb­wegs objek­tiv zu urtei­len, wie gesagt, ich besit­ze alle drei Kon­so­len, was ein Vor­ur­teil gegen eine der Kon­so­len hof­fent­lich von vorn­her­ein aus­schließt 😀

Xbox 360

Der Nach­fol­ger der Xbox erschien Ende 2005 und war somit die ers­te so genann­te Next­Gen-Kon­so­le über­haupt. Der ver­bau­te Pro­zes­sor ver­fügt über drei Ker­ne, die mit jeweils 3,2 GHz getak­tet sind und stammt von IBM, ist also ein PowerPC, der aber spe­zi­ell für die Xbox 360 kon­zi­piert wur­de. Der Gra­fik­chip stammt von ATI und bedient sich am mit 700 MHz getak­te­ten Haupt­spei­cher, der ins­ge­samt 512 MB groß ist. Als opti­sches Lauf­werk kommt ein DVD-Lauf­werk zum Ein­satz, was nicht gera­de für sei­ne gerin­ge Geräusch­ent­wick­lung bekannt ist. Im Ver­lau­fe der Zeit kamen vie­le ver­schie­de­ne Her­stel­ler zum Zuge, ein lei­ses Lauf­werk hat kei­ner hin­be­kom­men. Im Lie­fer­um­fang der Kon­so­le befin­det sich ein kabel­lo­ser Game­con­trol­ler (dazu spä­ter mehr), ein kabel­ge­bun­de­nes Head­set, ein Cat5-Netz­werk­ka­bel und natür­lich Kalt­ge­rä­te­ka­bel samt gigan­ti­schem exter­nen Netz­teil mit Aktiv­lüf­tung. Die Kon­so­le gibt es ohne Fest­plat­te zu kau­fen, was wenig sinn­voll ist, oder eben mit einer Fest­plat­te mit 20, 60 oder 120 GB Kapa­zi­tät. Mei­ne Xbox Eli­te hat außer­dem ein schwar­zes Gehäu­se, neben der 120 GB Fest­plat­te, was sie von der “nor­ma­len” Ver­si­on abhebt. An Schnitt­stel­len bringt die Xbox 360 einen Anschluss nach Fast Ether­net, drei Anschlüs­se mit USB 2.0, einen AV- sowie einen HDMI-Anschluss mit. Um die­sen in vol­lem Umfang zu nut­zen (also auch 6‑Ka­nal-Ton­aus­ga­be) benö­tigt es ein rund 50 € teu­res Pre­mi­um-Kabel von Micro­soft, die­ses lag mei­ner Eli­te aber bereits bei. Frech ist es trotz­dem. Optio­nal lässt sich außer­dem, neben wei­te­ren Con­trol­lern natür­lich, noch sinn­vol­les Zube­hör wie ein WLAN-Adap­ter oder eine Web­cam käuf­lich erwer­ben. Bei­de sind nicht gera­de güns­tig, der WLAN-Adap­ter bei­spiels­wei­se kos­tet bei­na­he 70,- €.

Die Ver­ar­bei­tung der Hard­ware emp­fin­de ich als durch­aus gut, nicht vor­bild­lich, aber gut. Der Con­trol­ler hin­ge­gen ist das Bes­te, was mir in mei­nem gan­zen Spie­ler­le­ben begeg­net ist. Und ich spie­le seit rund 20 Jah­ren 😉 Das Ding liegt super in der Hand, ist vom Gewicht her genau rich­tig, hält lan­ge durch und die Hän­de ver­kramp­fen auch nach län­ge­rem Spiel nicht. Die Laut­stär­ke­ent­wick­lung der Kon­so­le könn­te etwas bis deut­lich gerin­ger sein, immer­hin kann man seit dem letz­ten gro­ßen Update des Betriebs­sys­tems der Kon­so­le Spie­le auch auf der Fest­plat­te instal­lie­ren, was die Laut­stär­ke­ent­wick­lung wäh­rend des Spiels deut­lich senkt. Die Benut­zer­schnitt­stel­le, das Dash­board, reagiert mit­un­ter rela­tiv trä­ge, ins­be­son­de­re bei Down­loads, was durch­aus ner­ven kann. Wie bereits erwähnt muss der, der online spie­len möch­te einen Gold-Account beim Micro­softschen Online-Dienst Xbox Live haben, glei­ches gilt, wenn man Spie­le­de­mos und Arca­de-Games sowie Addons oder Fil­me her­un­ter­la­den möch­te. Die Aus­wahl an allem erwähn­ten ist mitt­ler­wei­le recht groß, Fil­me sind in HD-Auf­lö­sung ver­füg­bar (bis­her lei­der nur 720p) und die Preis­struk­tur rela­tiv fair. Bezahlt wird all das in Xbox Points. 100 Points ent­spre­chen in etwa 1,19 €, abhän­gig vom aktu­el­len Dol­lar-Wech­sel­kurs. Spie­le gibt es bereits ab 400 Punk­ten, Fil­me ab 320 (even­tu­el­le Gedächt­nis­feh­ler mögen mir ver­zie­hen sein ;-)). Kau­fen kann man die Points ent­we­der per Kre­dit­kar­te oder über Pre­paid-Kar­ten. Unter den so genann­ten Arca­de Games ste­cken auch eini­ge Per­len, Spiel­kon­zep­te, wie man sie wohl von den gro­ßen Publis­hern nicht erwar­ten dürf­te. Schön ist, dass man jeden die­ser Titel vor­her in einer Demo­ver­si­on kos­ten­los her­un­ter­la­den darf. Die Down­load­ge­schwin­dig­keit ist hier­bei zumeist durch­aus gut. Mul­ti­play­er­spie­len bei­zu­tre­ten ist so ein­fach, wie man es sich nur vor­stel­len kann: Spiel star­ten, Mul­ti­play­er wäh­len, zu einem offe­nen Spiel ver­bin­den, fer­tig. Kei­ne Rou­ter-Kon­fi­gu­ra­ti­on oder ähn­li­ches ist not­wen­dig.

Mein Fazit: Das Kon­zept der Xbox 360 ist wirk­lich aus­ge­reift, wenn auch die Benut­zer­schnitt­stel­le etwas zügi­ger sein könn­te. Die Über­sicht­lich­keit ist mehr oder min­der immer gege­ben und die Spie­le­aus­wahl ist gigan­tisch, sowohl “gro­ße” Titel als auch “klei­ne” fin­det man zuhauf. Die Qua­li­tät ist natür­lich sehr gemischt, aber gera­de bei den Arca­de-Titeln ver­ber­gen sich so eini­ge Per­len. Pro­be­spie­len lohnt wirk­lich sehr häu­fig. Als klei­nen Geheim­tipp möch­te ich ein­fach mal Braid nen­nen, ein sehr intel­li­gen­tes Platt­form-Spiel mit eige­nem Gra­fik­stil, das eini­ge Kopf­nüs­se bie­tet. Der Con­trol­ler ist vor­bild­lich und sehr gut ver­ar­bei­tet. Wer auf den der­zeit größ­ten Spie­le­vor­rat am Kon­so­len­markt zurück­grei­fen möch­te und ein aus­ge­reif­tes Online­er­leb­nis erwar­tet und die 60,- € im Jahr nicht scheut, ist mit der Xbox 360 der­zeit sicher­lich am Bes­ten bera­ten.

Playstation 3

Der Nach­fol­ger der über­aus erfolg­rei­chen Play­sta­ti­on 2 erschien in Euro­pa im März 2007, also über ein Jahr spä­ter als die Xbox 360. Sie ist die zwei­te der so genann­ten Next­Gen-Kon­so­len und ver­fügt über ins­ge­samt neun Pro­zes­sor­ker­ne. Einer die­ser Ker­ne ist der so genann­te Gene­ral Pur­po­se CPU, die ande­ren acht schimp­fen sich Syn­er­gistic Pro­ces­sing Ele­ments, sind also im klas­si­schen Sin­ne gar kei­ne Pro­zes­sor­ker­ne. Von die­sen acht Ele­men­ten sind jedoch nur sechs nutz­bar. Der Takt der GPU beträgt 3,2 GHz. Der Arbeits­spei­cher tak­tet eben­falls mit vol­len 3,2 GHz und ist 256 MB groß, also gera­de mal halb so groß wie der der Xbox 360, dafür aber deut­lich schnel­ler getak­tet. Die Gra­fik­kar­te ver­fügt über 256 MB eige­nen Gra­fik­spei­cher, an dem ein Takt von 700 MHz anliegt, Her­stel­ler des Chips ist nVi­dia. Die Fest­plat­ten­grö­ße beträgt zwi­schen 20 und 160 GB, in mei­ner Ver­si­on steckt eine Fest­plat­te mit 80 GB. Im Lie­fer­um­fang befin­det sich die Kon­so­le nebst kabel­lo­sem Con­trol­ler, Netz­teil und Mini-USB-Lade­ka­bel für den Con­trol­ler. Für die digi­ta­le Anbin­dung an TV und gege­ben­falls Audio-Recei­ver muss der Käu­fer selbst sor­gen. Die Ober­flä­che wirkt nach dem ers­ten Start sehr auf­ge­räumt und schlicht, lässt sich aber nach­träg­lich, wie bei der Xbox, über The­mes ver­än­dern. Alle, die ich bis­her aus­pro­biert habe, hat­ten aber einen mise­ra­blen Kon­trast. Das inte­grier­te WLAN funkt maxi­mal nach dem G‑Standard, also mit 54 Mbit, was für Spie­le aber mehr als aus­rei­chend ist. Beim Strea­men kann es aber schnell zu Eng­päs­sen kom­men, wie ich am eige­ne Lei­be habe erfah­ren müs­sen. Der Con­trol­ler hat sich seit der Play­sta­ti­on 2 nicht wei­ter­ent­wi­ckelt, was ich als gro­ßes Man­ko betrach­te, weil ich ihn schon damals als zu klein emp­fun­den habe. Er ist jetzt kabel­los, aber das ist auch schon die ein­zi­ge Ände­rung. Im Gegen­satz zum Xbox-Con­trol­ler ist der Akku fest mon­tiert, lässt sich also ohne wei­te­res nicht aus­tau­schen. Vibra­ti­on beherrscht er auch erst seit kur­zem, mein Con­trol­ler gehört zu der neue­ren Genera­ti­on. Die ers­te Ver­si­on hat­te noch kei­nen Motor. Der Play­sta­ti­on Store fährt erst zu Höchst­form auf, wenn man einen Wohn­sitz in bei­spiels­wei­se den USA vor­gau­kelt, das Reper­toire an Soft­ware für den deut­schen Markt ist deut­lich klei­ner als das für den Markt der Exil-Euro­pä­er. Einen Film-Ver­leih gibt es bis dato auch noch nicht. Ansons­ten fin­det man vie­le Titel wie­der, die es auch im Xbox Live Store gibt. Bezahlt wird hier direkt in Lan­des­wäh­rung, bei mei­nem aktu­el­len Account also in US-$. Die Prei­se bewe­gen sich auf ähn­li­chem Niveau wie die bei der Xbox. Lei­der ist die Down­load­ge­schwin­dig­keit ein schlech­ter Witz.

Im direk­ten Ver­gleich gibt es kei­ne auf­fäl­li­gen Unter­schie­de in der Gra­fik­qua­li­tät der für bei­de Platt­for­men ver­füg­ba­ren Titel, was auch die Tests in den Spie­le­zeit­schrif­ten wie­der­ge­ben. Mal sieht der eine Titel auf der Play­sta­ti­on bes­ser aus, mal auf der Xbox, die Unter­schie­de sind jedoch immer mini­mal. Die Anzahl an Exklu­siv­ti­teln hält sich, im Gegen­satz zur Vor­gän­ger­ge­nera­ti­on, stark in Gren­zen. Glei­ches gilt auch für die PSN (Play­sta­ti­on Network)-Titel, da sich ein Groß­teil der her­un­ter­lad­ba­ren Titel auch im Xbox Live Store wie­der fin­det. Ner­vi­ger­wei­se muss man über den Play­sta­ti­on Store bezo­ge­ne Demos und PSN-Titel nach dem Down­load erst instal­lie­ren, auf der Xbox sind die Spie­le sofort abspiel­be­reit.

Das eigent­li­che Kil­ler­ar­gu­ment der Play­sta­ti­on ist somit ganz klar das inte­grier­te Blu-Ray-Lauf­werk, dage­gen kann die Xbox mit ihrem DVD-Lauf­werk natür­lich nicht anstin­ken. Auch die gerin­ge­re Laut­stär­ke­ent­wick­lung kann durch­aus ein Kauf­ar­gu­ment sein. Oder das stan­dard­mä­ßig vor­han­de­ne WLAN. Im Hin­ter­kopf soll­te man dabei natür­lich behal­ten, dass die Play­sta­ti­on auch eini­ge Euros mehr kos­tet, man das Funk­ti­ons­plus also nicht für lau bekommt.

Mein Fazit: Die Play­sta­ti­on 3 ist sicher­lich die tech­nisch “bes­se­re” Kon­so­le, sie bie­tet nomi­nell mehr Rechen­leis­tung, hat ein HD-Lauf­werk und ist lei­ser. Über das Gehäu­se­de­sign lässt sich strei­ten, ich fin­de es nicht schlecht. Die grö­ße­re Aus­wahl an exter­nen Schnitt­stel­len (Blue­tooth, WLAN, Kar­ten­le­ser (bei eini­gen Ver­sio­nen), etc.) hat sicher­lich auch ihre Vor­tei­le. Lei­der kos­tet die Play­sta­ti­on noch immer rund 400,- EUR und ist somit mit Abstand die teu­ers­te Spie­le­kon­so­le. Wer aber ohne­hin einen Blu-Ray-Play­er kau­fen woll­te und noch kei­ne Spie­le­kon­so­le besitzt und sich mit dem viel zu klei­nen Con­trol­ler arran­gie­ren kann, der soll­te bei der Play­sta­ti­on 3 zugrei­fen. Die Spie­le­aus­wahl soll­te in der nächs­ten Zeit noch deut­lich grö­ßer wer­den und opti­sche Unter­schie­de zur den Ver­sio­nen für die Kon­so­le aus Red­mond bestehen qua­si nicht. Die Anzahl der Exklu­siv­ti­tel für die Kon­kur­renz ist über­schau­bar, soll­te also auch nicht vom Kauf abhal­ten. Ein ganz net­tes Schman­kerl am Ran­de: die ver­bau­te Fest­plat­te lässt sich offi­zi­ell durch eine belie­bi­ge 2,5″-SATA-Festplatte erset­zen, das geht bei der Xbox nicht.

Wii

Der Under­dog unter den aktu­el­len Kon­so­len. Kein HD-Video, kein 6‑Ka­nal-Sound. Und kein regu­lä­rer Con­trol­ler. Außer­dem muss man so eine merk­wür­di­ge Sen­sor­leis­te auf sein Fern­seh­ge­rät legen. Was ist los?

Nin­ten­dos Ziel­grup­pe ist ganz klar eine ande­re als die von Micro­soft oder Sony. Das sieht man auch schon an den Dimen­sio­nen der Kon­so­le: sie ist ver­hält­nis­mä­ßig klein und nied­lich, nicht so ein Koloss wie die Next­Gen-Kon­so­len aus Japan bzw. Ame­ri­ka. Auch die tech­ni­schen Daten sehen ver­gleichs­wei­se mau aus, der Pro­zes­sor kommt von IBM und tak­tet mit gera­de mal 729 MHz, der Gra­fik­chip von ATI bringt gera­de mal 243 MHz auf die Uhr. HD-Lauf­werk? Fehl­an­zei­ge. Ein stink­nor­ma­les DVD-Lauf­werk ist ver­baut, mit dem man nicht mal DVD-Fil­me betrach­ten kann. Des­we­gen bewegt sich die Wii auch voll­stän­dig außer Kon­kur­renz. Bis auf den Preis, der liegt näm­lich zwi­schen den bei­den Gigan­ten. Der Grund für die immens hohen Ver­kaufs­zah­len der Wii liegt auch nicht in ihrer tech­ni­schen Über­le­gen­heit, son­dern in der Idee. Nin­ten­do möch­te den Gele­gen­heits­spie­ler anspre­chen, der kei­ne Lust hat, eine Con­trol­ler­be­le­gung mit 20 Tas­ten aus­wen­dig zu ler­nen, bevor er sich ins Ver­gnü­gen stürzt. Des­we­gen lie­gen der Wii auch eini­ge gra­fisch sehr unspek­ta­ku­lä­re, spie­le­risch dafür umso wit­zi­ge­re Sport­spie­le bei. So kann man ganz intui­tiv Ten­nis spie­len, ein paar Pins beim Bow­ling umschub­sen oder den Rasen beim Golf spie­len zer­fet­zen. Außer­dem kann wer mag sei­ne alte Spie­le­samm­lung vom Game­Cu­be auch auf der Wii ver­wen­den. Für die Wii gibt es wenigs­tens ein digi­ta­les Kom­po­nen­ten­ka­bel, mit dem die Kon­so­le auch auf einem digi­ta­len Fern­se­her ein halb­wegs schar­fes, aber eben nicht hoch­auf­ge­lös­tes Bild, bie­tet.

Aber genau hier liegt auch mein per­sön­li­ches Pro­blem: Anfangs hat es noch immensen Spaß gemacht, klei­ne Sport­spie­le zu spie­len oder mit dem per­si­schen Prin­zen unter vol­lem Kör­per­ein­satz durch die Gegend zu sprin­gen, mitt­ler­wei­le fin­de ich aber kei­ne reiz­vol­len Titel mehr für das Gerät. Was ich wirk­lich emp­feh­len kann, ist die Wii Fit, ein rund 80,- € teu­res Fit­ness­ge­rät, des­sen Soft­ware einen vir­tu­el­len Trai­ner auf dem Fern­se­her anzeigt und somit die kör­per­li­che Ertüch­ti­gung kon­trol­liert zuhau­se anbie­tet. Klar, auch Ten­nis und Boxen sind anstren­gend, aber die­ses Pro­dukt zielt expli­zit auf sport­li­ches Trai­ning. Das mit­ge­lie­fer­te Wii Balan­ce Board dient hier u.a. als Waa­ge und Vital­zei­chen­mess­ge­rät. Den regu­lä­ren Con­trol­ler, die Wiimo­te sowie das Nun­chuck benö­tigt man wäh­rend des Trai­nings den­noch, den Nun­chuck aller­dings nur beim Boxen. Die Wiimo­te und der Nun­chuck mes­sen, wie bei allen ande­ren Spie­len auch, die drei­di­men­sio­na­len Bewe­gun­gen des Spie­lers im Raum und geben sie über den ein­gangs erwähn­ten Sen­sor an die Kon­so­le wei­ter. Die Soft­ware errech­net die dar­aus resul­tie­ren­den Bewe­gungs­ab­läu­fe und gibt sie in der Soft­ware wie­der. Das Gan­ze kann wirk­lich Spaß machen, weil man eher ein Gefühl der Inter­ak­ti­on bekommt als mit einem nor­ma­len Con­trol­ler wie bei der Play­sta­ti­on oder der Xbox.

Mein Fazit: Die Wii ist tech­nisch die mit Abstand schlech­tes­te Kon­so­le und lie­fert Gra­fik in der Qua­li­tät der vor­he­ri­gen Kon­so­len­ge­nera­ti­on, also auf dem Level der Xbox bzw. Play­sta­ti­on 2. Den­noch hat das neu­ar­ti­ge Steue­rungs­kon­zept dafür gesorgt, dass die Kund­schaft Nin­ten­do die Lager leer­ge­kauft hat. Sicher­lich nicht ganz zu unrecht, aber für mich, als ambi­tio­nier­ten Spie­ler, hat die Wii ihren Reiz ganz schnell wie­der ver­lo­ren. Lei­der… Den­noch läuft sie außer Kon­kur­renz und ist eigent­lich nur der Voll­stän­dig­keit hal­ber in die­sen Arti­kel gera­ten 😉

Mein Gesamt­fa­zit: Die stän­di­gen Anfein­dun­gen von Besit­zern der Xbox 360 und der Play­sta­ti­on 3 sind voll­stän­dig über­flüs­sig. Sicher­lich, auf dem Papier mag die Play­sta­ti­on 3 die deut­lich bes­se­re Kon­so­le sein, ist aber preis­lich auch nicht wirk­lich mit der Xbox 360 zu ver­glei­chen und in der Pra­xis merkt man von der tech­ni­schen Über­le­gen­heit (bis auf die Blu-Ray-Unter­stüt­zung) rein gar nichts. Die Spie­le sehen auf bei­den Kon­so­len gleich gut oder schlecht aus. Dafür war­tet die Xbox mit dem bes­se­ren (wirk­lich, rein objek­tiv) Con­trol­ler und dem bes­se­ren Online-Ange­bot auf, auch wenn die­ses kos­ten­pflich­tig ist. Die Wahl ist und bleibt Geschmacks­sa­che und hat rein gar nichts mit Objek­ti­vi­tät zu tun. Bei­de Kon­so­len haben ihre Vor- und Nach­tei­le, außer­dem spie­len sie preis­lich in ganz ande­ren Ligen. Wer ein All-in-One-Gerät sucht, wird sicher­lich mit der Play­sta­ti­on 3 glück­lich, muss sich aber mit einem schlech­te­ren Con­trol­ler und Online-Ange­bot zufrie­den geben. Wer wirk­lich nur spie­len will, soll­te die Xbox 360 in die nähe­re Aus­wahl neh­men, da er dort weni­ger zahlt und eine grö­ße­re Aus­wahl an Spie­len, On- und Off­line, bekommt.

Quel­len­an­ga­ben:

http://de.wikipedia.org/wiki/Xbox_360

http://de.wikipedia.org/wiki/Playstation_3

http://de.wikipedia.org/wiki/Wii

Kategorien
Spiele Technologie

My vengeance is everything!

So waren sei­ne Wor­te im ers­ten Trai­ler. Das Blut könn­te etwas rea­lis­ti­scher sprit­zen, so maka­ber sich das anhört, aber ansons­ten bin ich hin und weg vom Erschei­nungs­bild des drit­ten Teils von God of War. Ich freu mich auch jeden Fall schon tie­risch. Für alle, denen es genau so geht, hier ein qua­li­ta­tiv sehr guter Trai­ler von God of War 3. Ein Release­da­tum hat uns Sony lei­der immer noch nicht geschenkt 🙁 Ach ja, eine HD-Fas­sung ist auch ver­füg­bar.

Kategorien
Auto Persönliches Technologie

Planloses Navi

Mein Navi­ga­ti­ons­sys­tem ist von der Fir­ma klick­Tel. Als ich mir vor etwa 1,5 Jah­ren mein ers­tes Navi­ga­ti­ons­sys­tem geholt habe, war mir eigent­lich nur wich­tig, dass es die Nach­bar­län­der abdeckt, eine Sprach­aus­ga­be besitzt und über TMC ver­fügt. Beim Stö­bern bei amazon.de bin ich dann auf das klick­Tel Navi­ga­tor K400 für damals rund 150,- EUR gestos­sen. Das Gerät scheint mitt­ler­wei­le, wie alle ande­ren die­ses Her­stel­lers, vom Markt ver­schwun­den zu sein. Es war ein “Kauf ins blaue”, ohne vor­her groß­ar­tig Rezen­sio­nen zu lesen, man hat ja schließ­lich Rück­ga­be­recht. Davon hab ich aller­dings kei­nen Gebrauch gemacht, das Gerät über­zeug­te mich in sei­nen Grund­funk­tio­nen, ich fand nur die Dau­er der Tri­an­gu­la­ti­on etwas zu lang, ansons­ten eigent­lich ein tol­les Gerät. Es ver­fügt über ein inte­grier­tes Tele­fon­buch, über das man direkt Ein­trä­ge aus­wäh­len und sich dort hin brin­gen las­sen kann und das TMC erwies sich als recht zuver­läs­sig. Als net­te Zusatz­funk­ti­on, wenn auch der Ein­satz eben­die­ser in Deutsch­land ille­gal ist, ist ein inte­grier­ter Blit­zer­war­ner, den ich selbst­ver­ständ­lich nicht ver­wen­de.

Nun zur Über­schrift: ich fah­re seit rund 1,5 Wochen täg­lich nach Hil­des­heim, um dort Excel zu unter­rich­ten. Da ich weiß, wie ich nach Hil­des­heim kom­me, aber kei­ne Ahnung habe, wo der Schu­lungs­ort in Hil­des­heim genau liegt, habe ich mich auf mein Navi­ga­ti­ons­sys­tem ver­las­sen. Die Stre­cke, die ich am ers­ten Tag gefah­ren bin, kam mir aber unnö­tig lang vor. Am nächs­ten Mor­gen tes­te­te ich also die Stre­cke, die ich bis Hil­des­heim ohne Navi gefah­ren wäre. Das Navi­ga­ti­ons­sys­tem hat natür­lich stän­dig ver­sucht, mich auf sei­ne Rou­te zurück­zu­brin­gen. Die freund­li­chen Hin­wei­se der net­ten Frau­en­stim­me habe ich geflis­sent­lich igno­riert und bin ein­fach wei­ter gefah­ren. Selbst bei der aller­letz­ten Mög­lich­keit, die von der Soft­ware bevor­zug­ten Stre­cke über die A395A39A2A7 zu fah­ren, woll­te das Gerät mich wie­der auf die Auto­bahn schie­ben. Aber ich ließ mich natür­lich nicht beir­ren und fuhr wei­ter. Kei­ne 15 Sekun­den, nach­dem ich die letz­te mög­li­che Auf­fahrt auf die A395 hin­ter mir gelas­sen habe, redu­zier­te sich auf ein­mal Fahr­zeit UND Stre­cke. Als Vor­ein­stel­lung nimmt die Soft­ware des Navi­ga­ti­ons­sys­tems immer die schnells­te Stre­cke. Kilo­me­ter sind also zweit­ran­gig, vor­aus­sicht­li­che Fahr­zeit ist das wich­tigs­te Kri­te­ri­um. Nun war es wit­zi­ger­wei­se so, dass sich bei­de Fak­to­ren redu­zier­ten und zwar nicht uner­heb­lich. Die Stre­cke ver­kürz­te sich um schlap­pe 13 km, die Fahr­zeit redu­zier­te sich um acht Minu­ten.

Ich wer­de in den nächs­ten Tagen eine E‑Mail an den Her­stel­ler schrei­ben und ein Update oder mein Geld zurück ver­lan­gen. Das Gerät “ver­arscht” den Besit­zer ja qua­si. Ich möch­te nicht wis­sen, wie vie­le Kilo­me­ter ich schon umsonst zurück­ge­legt habe, ohne dabei auch nur eine Minu­te Fahrt­zeit zu spa­ren. Dass die mich nicht dafür ent­schä­di­gen wer­den ist klar, aber ein wenig Ent­ge­gen­kom­men kann ich hof­fent­lich von den Jungs erwar­ten. Auch wenn ich nicht dar­an glau­be, aber die Hoff­nung stirbt ja bekannt­lich zuletzt 😉 Dass sämt­li­che Navis die­ses Her­stel­lers nicht mehr ver­füg­bar sind, wun­dert mich unter die­sen Aspek­ten aber ehr­lich gesagt kein Stück. Wird wohl Zeit für ein neu­es Gerät…

Kategorien
Allgemeines Technologie

Es funktioniert doch…

Wie häu­fig habe ich die­sen Satz in mei­nem Leben schon gehört, wenn ich jeman­den von den Vor­zü­gen einer Neu­ent­wick­lung über­zeu­gen woll­te? Wie­so sper­ren sich so vie­le Leu­te gegen Neu­ent­wick­lun­gen? Wovor haben die Angst? Oder, mein zweit­plat­zier­ter Favo­rit: “Wozu brauch ich denn das?”.

Häu­fig bin ich der­je­ni­ge, der Men­schen in sei­ner nähe­ren oder auch fer­ne­ren Umge­bung von Neu­ent­wick­lun­gen über­zeugt. So war ich der ers­te in mei­nem Freun­des­kreis mit einem Mac, mit einem Navi­ga­ti­ons­sys­tem und auch der ers­te mit einer Spie­le­kon­so­le. Egal, wel­che Anschaf­fung es war, von vie­len hör­te ich einen der bereits genann­ten Sät­ze. Bei den drei Sachen ins­be­son­de­re den letz­ten. “Wozu kaufst du denn einen Mac? Die sind doch viel teu­rer. Und wozu über­haupt Mac OS? Win­dows funk­tio­niert doch, man braucht doch nix ande­res”, oder “Kannst du kei­ne Stra­ßen­kar­ten lesen? Wer braucht schon ein Navi?” oder aber auch “Eine Spie­le­kon­so­le? Du hast doch einen PC. Außer­dem kann man da die Spie­le doch nicht (raub)kopieren.”

Ja, mit genau sol­chen Äuße­run­gen durf­te (und darf ich immer noch) mich rum­schla­gen. Man­che Men­schen wol­len ein­fach nicht vom Gewöhn­ten weg, wol­len das “Alt­her­ge­brach­te” behal­ten. Es funk­tio­niert doch, wie­so denn sich an was neu­es wagen? Wit­zi­ger­wei­se ist es dann zumeist so, dass gar nicht so lan­ge Zeit spä­ter fast alle der Per­so­nen, von denen ich genau das habe hören dür­fen, eben die­se Sachen selbst gekauft haben.

Über ein Phä­no­men, was Benut­zer­schnitt­stel­len angeht habe ich mir bereits hier aus­ge­las­sen, das möch­te ich an die­ser Stel­le nicht wie­der­ho­len. Aber auch hier lau­tet das Haupt­ar­gu­ment: Es funk­tio­niert doch, wie­so soll­te ich denn was ändern? Tja, mei­ne Ant­wort lau­tet dann zumeist: Weil es bestimmt noch bes­ser geht. Das was funk­tio­niert, muss nicht unbe­dingt auch das Bes­te sein, kein Prin­zip der Welt soll­te man jemals als per­fekt anse­hen. Ver­bes­se­run­gen wer­den immer, über­all und jeden Tag erfun­den. Wie­so soll­te man denn kei­nen Gebrauch davon machen? Wenn alle Men­schen so den­ken wür­den, wür­den wir ver­mut­lich noch mit Rauch­zei­chen kom­mu­ni­zie­ren und auf Pfer­den durch die Prä­rie rei­ten. Und nein, ich fin­de, dass das nicht über­trie­ben dar­ge­stellt ist. Wenn man nur bedenkt, wel­che Ängs­te die Men­schen vor den “hohen” Geschwin­dig­kei­ten der ers­ten Eisen­bah­nen und Autos hat­ten… Eine ähn­li­che Angst schei­nen vie­le Men­schen vor tech­ni­schen Neue­run­gen zu haben. Sogar Men­schen, die ihren Lebens­un­ter­halt mit der Tech­nik (in die­sem Fal­le also Com­pu­tern) ver­die­nen, sträu­ben sich häu­fig davor, Neue­run­gen zu akzep­tie­ren und auch zu nut­zen. Egal, ob das nun neue Ver­sio­nen von Red­mond­schen Betriebs­sys­te­men sind oder gänz­lich neue Kon­zep­te. Die­se Marot­te ist lei­der ins­be­son­de­re in Deutsch­land beson­ders stark ver­tre­ten, hier ist man beson­ders skep­tisch dem Neu­en gegen­über. Kon­ser­va­ti­vi­tät rules. Viel­leicht auch des­we­gen die vie­len BILD-Leser…

Wei­ter geht es mit den vie­len, vie­len Trends und Ent­wick­lun­gen im Web. Erwäh­nens­wert fin­de ich da aus mei­ner Sicht ins­be­son­de­re Twit­ter und Drop­box, auch wenn die­se nicht wirk­lich brand­neu sind, gehö­ren sie den­noch zu einem aktu­el­len Trend, der sich im Web abzeich­net. Über Twit­ter sagen aktu­ell vie­le das, was vor weni­gen Jah­ren noch über Blogs gesagt wur­de: voll­kom­men nutz­los, sinn­be­freit, über­flüs­sig, eine rei­ne Mode­er­schei­nung. Drop­box nen­ne ich jetzt nur als ein Bei­spiel für einen gene­rel­len Trend: Online­fest­plat­ten. Man bucht Spei­cher­platz bei einem Anbie­ter im Inter­net. Der Vor­teil? Ganz klar, ich kann von jedem (inter­net­ver­sorg­ten) Ort die­ser Welt auf die­se Daten zugrei­fen, ohne dass ich zuhau­se mei­nen Rech­ner lau­fen las­sen muss. So kann ich Daten­be­stän­de zwi­schen meh­re­ren Sys­te­men syn­chron hal­ten (dafür nut­ze ich es haupt­säch­lich), Daten mei­nen Freun­den und Bekann­ten zur Ver­fü­gung stel­len und sicher­lich noch vie­le ande­re tol­le Sachen machen, an die ich jetzt gera­de nicht den­ke. Auch hier höre ich aber, genau wie bei Twit­ter, immer wie­der die Fra­ge: “Wozu brau­che ich das?” Mei­ne Ant­wort wäre dann in etwa: “Wozu du Twit­ter brauchst, kann ich dir auch nicht genau sagen. Eigent­lich gar nicht. Es macht ein­fach Spaß, pro­bier es aus. Wenn es dir nicht gefällt, dann hör wie­der auf damit.” Und zu Diens­ten wie Drop­box wür­de ich dann etwas in der Art sagen wie: “Es ist ein­fach prak­tisch. Ich erspa­re mir das Sen­den gro­ßer Daten­men­gen per E‑Mail (wozu E‑Mail auch nie gedacht war) und kann auf Daten platt­form- und orts­un­ab­hän­gig zugrei­fen. Reicht das?”.

Ich beschäf­ti­ge mich gera­de mit dem GTD-Prin­zip, ein­fach, um mei­ne Zeit bes­ser pla­nen zu kön­nen und pro­duk­ti­ver zu wer­den. Ich bin noch in der Lern­pha­se, bin vom Prin­zip aber echt begeis­tert. Auch da höre ich schon wie­der von vie­len die Unken­ru­fe, dass der Groß­teil doch logisch sei, man das ohne­hin machen wür­de, und so wei­ter und so fort. Aber ich den­ke, dass ich die Ent­wick­lung eines sol­chen Sys­tems lie­ber dem Pro­fi über­las­se und nicht mein eige­nes Süpp­chen koche. Auch wenn der Groß­teil davon viel­leicht logisch ist und man da auch ohne ein sol­ches Sys­tem hät­te drauf kom­men kön­nen. Wird ja alles über­be­wer­tet. Natür­lich. Aber wie es bei kom­ple­xen Sys­te­men nun mal so ist: lässt man eine Kom­po­nen­te weg oder ver­än­dert sie auch nur gering­fü­gig, zer­bricht das gesam­te Sys­tem.

Mal ganz ehr­lich: Wozu brau­chen wir Din­ge wie Kli­ma­an­la­gen, Han­dys, Digi­tal­ka­me­ras, Flach­bild­fern­se­her, Fern­seh­bild in HD-Auf­lö­sung, 8‑Ka­nal-Sound, Video­spie­le, Sport­wa­gen? Es ging doch frü­her auch ohne. Natür­lich braucht man all die­se Din­ge nicht, aber sie erleichtern/verschönern das Leben doch.