Kategorien
Linux Open Source Software Technik

netcup vServer — gut und günstig

Bis ich mei­ne Selbst­stän­dig­keit an den Nagel gehängt habe, hat­te ich die für mei­ne Arbeit not­wen­di­gen Root-Ser­ver immer bei Hetz­ner. Die Ser­ver dort sind für den Preis wirk­lich gut, der Ser­vice stimmt auch. Als ich dann aber in eine Fest­an­stel­lung über­ging, benö­tig­te ich natür­lich kei­nen gan­zen Root-Ser­ver mehr. Ich ent­schied mich für einen vSer­ver, der güns­tig sein soll­te, aber auch genü­gend Fest­plat­ten­platz bie­ten soll­te, damit ich mei­ne pri­va­te own­Cloud-Instanz dar­auf betrei­ben kann. 50 — 100 GB muss­ten es min­des­tens sein. Außer­dem brauch­te er genü­gend RAM, damit ich auch mei­ne pri­va­ten und gewerb­li­chen Web­sites dort able­gen konn­te.

Probieren geht über studieren

Bei mei­nen Recher­chen stieß ich auf rie­si­ge Preis­dif­fe­ren­zen, sogar Hetz­ner war mir eigent­lich zu teu­er. Schluss­end­lich wur­de ich dann bei net­cup fün­dig. Dort bekam ich Anfang 2014 für unter 15 € zwei CPU-Ker­ne, 6 GB RAM und 150 GB Fest­plat­ten­platz, wenn mich mein Gedächt­nis nicht trügt. Ein tol­ler Preis und für mei­nen Anwen­dungs­fall anfangs auch voll­kom­men aus­rei­chend. Im Nach­hin­ein hat sich die Anzahl der CPU-Ker­ne als pro­ble­ma­tisch erwie­sen, da die own­Cloud beim Resi­zen von Fotos doch ganz schön Last pro­du­ziert. Das habe ich eine Zeit lang recht häu­fig gemacht. Auch mein Foto-CMS Koken benö­tigt ein wenig CPU-Zeit, wenn neue Fotos hin­zu­kom­men.

Vor rund einem Jahr habe ich die­sen vSer­ver dann durch ein aktu­el­le­res Ange­bot des glei­chen Anbie­ters abge­löst. Die­ses Ange­bot beinhal­tet vier CPU-Ker­ne, 12 GB RAM und 240 GB SSD-Spei­cher. Und die­se Maschi­ne genügt mir nach wie vor. Seit etwa über einem Jahr lie­fert sie zuver­läs­sig alle Web­sites aus und hos­tet auch die eine oder ande­re own­Cloud-Instanz ohne zu kla­gen. Auch die­ser vSer­ver kos­tet gera­de mal etwa 15 €.

Auf einmal war er weg …

Zeit­gleich mit dem ers­ten vSer­ver bei net­cup mie­te­te ich einen wei­te­ren, klei­ne­ren vSer­ver für Spie­le­rei­en. Der hat­te nur einen CPU-Kern, 60 GB HDD und 1 GB RAM. Kos­te­te aber auch nur 6 € monat­lich.

Mein Anfang mit net­cup war etwas hake­lig. Lei­der bra­chen bei­de vSer­ver mir immer wie­der mal weg und das teil­wei­se für meh­re­re Minu­ten. Ich wur­de zwar brav über Pro­ble­me per E‑Mail infor­miert, toll war das aber trotz­dem nicht.

Seit nun über einem Jahr mit dem neu­en vSer­ver habe ich die­se Pro­ble­me aber nicht wie­der erlebt. Ich moni­to­re mei­ne Sys­te­me mit dem Uptime­Ro­bot und bekom­me es recht schnell mit, wenn Ser­vices weg bre­chen. Aber wie gesagt, seit über einem Jahr kei­ne Kla­gen.

Zuverlässige und günstige vServer

Die gibt es tat­säch­lich bei net­cup. Ich kann den Anbie­ter vor­be­halt­los emp­feh­len. Die übli­chen Mecha­nis­men zum neu­auf­set­zen und repa­rie­ren gibt es hier natür­lich. Zugriff über eine VNC-Kon­so­le ist mög­lich. Als Basis­tech­no­lo­gie wird KVM ein­ge­setzt. Die Per­for­mance ist durch die Bank weg gut und für klei­ne­re Web­ser­ver mehr als aus­rei­chend.

Kategorien
Google Linux Open Source Technologie WordPress

Kostenlose SSL-Zertifikate für alle

Kos­ten­lo­se SSL-Zer­ti­fi­ka­te für jeden, das klingt ein­fach viel zu schön, um wahr zu sein. Obwohl, Moment, das gab es schon mal. Und gibt es immer noch. StartS­SL stellt näm­lich für jeder­mann gül­ti­ge Zer­ti­fi­ka­te aus. Kos­ten­los. Domain-vali­diert und für jeder­mann erhält­lich. So neu ist die Idee also nicht. Nur scheint es StartS­SL nie auf den Mas­sen­markt abge­se­hen gehabt zu haben, kaum jemand wuss­te davon, war so mein Gefühl.

SSL? Was hat Snowden da losgetreten?

Nach den Snow­den-Ent­hül­lun­gen gin­gen die Gesprä­che um das The­ma Ver­schlüs­se­lung auch in der brei­ten, weni­ger tech­ni­kaf­fi­nen Bevöl­ke­rungs­schicht los. Wie sicher sind mei­ne Daten eigent­lich, wer kann sie wäh­rend des Trans­fers lesen, wer hat Zugriff auf mei­ne Daten, wenn sie erst mal ange­kom­men sind?

Lei­der waren SSL-Zer­ti­fi­ka­te in der Regel ein Pri­vi­leg für weni­ge. Ein­zel­do­main­zer­ti­fi­ka­te, die in der Regel die Domain selbst (also bspw. ulfklose.de) und eine Sub­do­main (also bspw. blog.ulfklose.de oder www.ulfklose.de) absi­chern, gibt es schon eine gan­ze Wei­le kos­ten­los von StartS­SL oder für wenig Geld von bspw. RapidSSL (ca. 30 € im Jahr). Aber die Bestel­lung und Bereit­stel­lung sol­cher Zer­ti­fi­ka­te erfor­dert eini­ges an Spe­zi­al­wis­sen, das das des Otto-Nor­mal-Nut­zers deut­lich über­steigt. Und wirk­lich klar war es den meis­ten die­ser Nut­zer wohl auch kaum, wofür er solch ein SSL-Zer­ti­fi­kat über­haupt brau­chen könn­te. Und sobald es Geld kos­tet, neigt gera­de der Deut­sche dazu, es nicht haben zu wol­len.

Goog­le fing vor gerau­mer Zeit damit an, SSL-gesi­cher­te Web­sites bes­ser zu bewer­ten, ihr Ran­king also höher ein­zu­stu­fen als das von unge­si­cher­ten Web­sites. Aber auch das hat nur wenig an der Ver­brei­tung der SSL-Instal­la­tio­nen ver­än­dert.

Let’s Encrypt — eine gute Idee

Genau, lasst uns ver­schlüs­seln. Gera­de nach den Snow­den-Ent­hül­lun­gen eine mehr als gute Idee, wis­sen wir doch jetzt mit Gewiss­heit, dass uns die Geheim­diens­te die­ser Welt gna­den­los aus­spio­nie­ren. Ver­hin­dern lässt sich das nur mit einer adäqua­ten Ver­schlüs­se­lung. Hier trat das Pro­jekt Let’s Encrypt auf den Plan.

Zum ers­ten Mal las ich Anfang 2015 dar­über, wenn ich mich nicht irre. Ende 2015 ging das Pro­jekt dann zuerst in eine geschlos­se­ne, spä­ter dann in eine offe­ne Beta-Pha­se. Die lief erstaun­lich gut, wes­we­gen man sich nun Mit­te April dazu ent­schloss, in die Pro­duk­tiv­pha­se über­zu­ge­hen.

Let’s Encrypt geht einen ande­ren, ein­fa­che­ren Ansatz, SSL-Zer­ti­fi­ka­te aus­zu­stel­len. Für den End­be­nut­zer beschränkt sich das im Ide­al­fall dar­auf, das Zer­ti­fi­kat ein­ma­lig für sei­ne Domain(s) zu bean­tra­gen und die­se danach regel­mä­ßig, alle drei Mona­te, auto­ma­ti­siert erneu­ern zu las­sen. Im Gegen­satz zu den gro­ßen Aus­stel­lern lau­fen Let’s‑Encrypt-Zertifikate näm­lich nach drei Mona­ten ab, bei den ande­ren sind es in der Regel wahl­wei­se 1, 2 oder 3 Jah­re. Der Vor­teil liegt hier auf der Hand: stellt sich her­aus, dass jemand sol­che Zer­ti­fi­ka­te miss­bräuch­lich ver­wen­det, kann man das Zer­ti­fi­kat nach drei Mona­ten ein­fach nicht ver­län­gern las­sen. Ist ein Zer­ti­fi­kat näm­lich erst mal aus­ge­stellt, kann der Aus­stel­ler es zwar zurück­zie­hen, es ein­fach ungül­tig wer­den zu las­sen, ist aber sicher. Nicht jeder Cli­ent prüft beim Auf­ruf, ob das Zer­ti­fi­kat nicht viel­leicht schon zurück­ge­zo­gen ist, was allein schon aus Grün­den der Per­for­mance logisch scheint.

Jetzt ist der Massenmarkt gefragt

Die gro­ßen Web­hos­ter sind nun gefragt. Wenn die­se Let’s Encrypt imple­men­tie­ren kann in Zukunft jeder kos­ten­los für all sei­ne Domains SSL-Zer­ti­fi­ka­te bean­tra­gen, bis irgend­wann, in einer hof­fent­lich nicht all­zu fer­nen Zukunft sämt­li­cher Web­traf­fic ver­schlüs­selt erfolgt.

Wer das Glück hat, einen eige­nen Ser­ver zu besit­zen und die­sen auch selbst admi­nis­trie­ren kann, kann aber schon jetzt davon pro­fi­tie­ren. Das Web-Con­trol-Panel Frox­lor unter­stützt Let’s Encrypt bereits, ISPCon­fig-Benut­zer kön­nen sich mit einer Erwei­te­rung behel­fen. Syn­olo­gy hat mit der Vor­stel­lung von DSM 6.0 eben­falls eine Unter­stüt­zung für Let’s Encrypt nach­ge­rüs­tet. Vie­le wei­te­re Pro­jek­te kün­dig­ten bereits ihre Unter­stüt­zung an. Sicher­lich wird es noch eine gerau­me Zeit dau­ern, bis über­all SSL als Stan­dard gilt, aber der ers­te Schritt ist getan.

Zer­ti­fi­kats­aus­stel­ler wer­den es sicher­lich bald schwe­rer haben, ihre Basis­zer­ti­fi­ka­te an den Mann zu brin­gen. Solan­ge Let’s Encrypt aber kei­ne Wild­card-Zer­ti­fi­ka­te anbie­tet, bleibt wenigs­tens die­ser Markt noch für DV-Zer­ti­fi­ka­te erhal­ten. OV und EV bie­tet Let’s Encrypt (noch?) nicht an, wir müs­sen uns also um Como­do und Co. nicht sor­gen.

Kategorien
Google Open Source Software Technik

Ich wollte Android mal wirklich ausprobieren

Und das tat ich dann auch. Mir stand als Fir­men­te­le­fon ein Black­ber­ry Z10 zur Ver­fü­gung. Das Gerät ging mir eigent­lich den gan­zen Tag nur auf die Ner­ven. Die, aus mei­ner Sicht, umständ­li­che Bedie­nung war die Haupt­schul­di­ge Ursa­che. Tech­nisch war an dem Gerät sonst nichts aus­zu­set­zen, aber ich woll­te mit der Bedie­nung ein­fach nicht zurecht kom­men. Ich habe es rund neun Mona­te lang wirk­lich pro­biert, man kann mir also nicht vor­wer­fen, sofort die Flin­te ins Korn gewor­fen zu haben.

Da ich mich pri­vat mit der Android-Ent­wick­lung befas­sen und sowie­so mal inten­siv ein Android-Gerät aus­pro­bie­ren woll­te, kauf­te ich mir auf eige­ne Kap­pe einen Andro­iden. Mei­ne Anfor­de­run­gen an das Gerät waren ein gerin­ger Preis, immer­hin ist das ja immer eines der Haupt­ar­gu­men­te pro Android, und ein mög­lichst unver­än­der­tes Android-Betriebs­sys­tem. Moto­ro­la bot mir bei­des in Kom­bi­na­ti­on in Form des Moto­ro­la Moto E an. Für gera­de mal 99 € soll­te ich ein aktu­el­les Smart­pho­ne mit 4,3″-Display und Android 4.4.4 bekom­men. Gese­hen, bestellt. Auf den ers­ten Blick war ich mehr als posi­tiv über­rascht dar­über, was mir hier für 99 € gebo­ten wird. Im Ver­lau­fe der kom­men­den Wochen stell­te sich dann aber lei­der her­aus, dass 4 GB Mas­sen­spei­cher und 1 GB RAM für die täg­li­che Arbeit doch etwas knapp bemes­sen sind. Nach nicht mal einem Dut­zend instal­lier­ter Apps war der inter­ne Spei­cher voll, und dank der Anwen­dun­gen, die ich für den Fir­men­be­trieb brau­che, genüg­te auch der Arbeits­spei­cher (schein­bar) nicht. Das Sys­tem ruckel­te und zuckel­te an allen Ecken und Enden. Das frü­her viel gerühm­te Fea­ture von Android, dass man Apps und Daten ein­fach auf eine güns­tig dazu gekauf­te Micro-SD kopie­ren konn­te, wur­de mei­nen Recher­chen nach mit Android 4.0 ent­fernt. Nur mit ger­oo­te­ten, also „geknack­ten“ Tele­fo­nen ist dies nach wie vor mög­lich. Scha­de, so blieb mei­ne 16 GB gro­ße Micro-SD fast voll­stän­dig leer. Den­noch, für Ein­stei­ger hal­te ich das Tele­fon für sehr geeig­net, zumal Moto­ro­la auch ein Update auf Android 5 Lol­li­pop ver­spro­chen hat. Das Release scheint aller­dings auf sich war­ten zu las­sen, vor über zwei Mona­ten hat Goog­le Ver­si­on 5.0 nun ver­öf­fent­licht. Auf dem Moto E ist lei­der nach wie vor kein Update in Sicht. Gebt mal bit­te Gas, Moto­ro­la ;-).

Da das Moto E also für mei­ne Ansprü­che etwas unter­di­men­sio­niert war, muss­te etwas grö­ße­res her. Hier bot sich das Moto­ro­la Moto G zwei­te Genera­ti­on an. Aus­ge­stat­tet mit einem 5″-Display, 8 GB inter­nem Spei­cher, aber lei­der eben­falls nur 1 GB RAM, erschien mir das schon eher nach dem Gerät, das ich such­te. Und für einen Kampf­preis von gera­de ein­mal 171 € über­leg­te ich nicht lan­ge. Der Ein­druck, den ich auf dem Moto E hat­te, dass 1 GB RAM nicht genügt, erwies sich als unwahr. Ich ver­mu­te mitt­ler­wei­le, dass die CPU in dem Moto E ein­fach zu schwach­brüs­tig war. Das Moto G kommt zwar gele­gent­lich auch mal ins Schwit­zen, ist aber ins­ge­samt deut­lich per­for­man­ter. Nur sel­ten bin ich von dem Gerät genervt, weil es mich meh­re­re Sekun­den war­ten lässt. Der inter­ne Spei­cher von 8 GB genügt eben­falls. Ein net­tes Zusatz­fea­ture: das Tele­fon ist Dual-SIM-fähig. Ich habe also neben mei­ner Fir­men­kar­te noch die Mög­lich­keit, eine wei­te­re SIM-Kar­te in das Gerät zu ste­cken. Ich per­sön­lich brau­che das bis­her nicht, aber viel­leicht kommt das ja noch … Auch für die­ses Gerät hat Moto­ro­la ein „zeit­na­hes“ Update auf Lol­li­pop ver­spro­chen. Angeb­lich wird der­zeit in Polen getes­tet, in Deutsch­land gibt es das Update lei­der immer noch nicht.

Die Akku­lauf­zeit bei­der Gerä­te war übri­gens über­ra­schend gut, in der Regel hat­te ich am Ende eines nor­ma­len Tages noch 40 % oder mehr Akku­la­dung übrig.

Nun zur Soft­ware: die viel­ge­rühm­ten Anpas­sungs­fä­hig­kei­ten von Android schau­te ich mir zuerst an. Ich tes­te­te also diver­se Laun­cher, instal­lier­te Icon-Packs, Noti­fier, Lock­screens und wie sie nicht alle hei­ßen. Eine net­te Mög­lich­keit, sei­ne Frei­zeit zu ver­brin­gen. Nach geschätz­ten vier Stun­den hat­te ich mich dann auf eine Kom­bi­na­ti­on ein­ge­schos­sen: Yahoo Avia­te, die Moons­hi­ne-Icons, AcDis­play als Lock­screen (ein Deri­va­te von Moto­ro­las Moto-X-exklu­si­vem Acti­ve­Dis­play) sowie Heads-up noti­fi­ca­ti­ons. Als alter­na­ti­ve Tas­ta­tur hol­te ich mir die ziem­lich bekann­te Swift­Key-Tas­ta­tur. So macht die Bedie­nung von Android tat­säch­lich Spaß, was ich vom Werks-Android nur begrenzt behaup­ten konn­te. Der Goog­le-eige­ne Laun­cher war zwar auch nicht schlecht, der von Yahoo gefällt mir aber deut­lich bes­ser. Das voll­stän­di­ge Feh­len eines ver­nünf­ti­gen Lock-Screens und das Noti­fi­ca­ti­on-Ver­hal­ten von Android 4.4 mach­ten auf mich als iOS-8-User einen ziem­lich merk­wür­di­gen Ein­druck. Auch die Goog­le-eige­ne Tas­ta­tur ist nicht son­der­lich kom­for­ta­bel. Aber so geht es. Ich bin trotz­dem schon unheim­lich auf Android 5.0 gespannt, da ich eigent­lich lie­ber mit Bord­mit­teln von Betriebs­sys­te­men arbei­te, da „Mods“ erfah­rungs­ge­mäß auch Pro­ble­me mit sich brin­gen. Viel­leicht schafft Goog­le es ja, dass man auch im Aus­lie­fe­rungs­zu­stand ver­nünf­tig damit arbei­ten kann.

Es gibt trotz­dem noch eini­ge Din­ge, die mich echt stö­ren. Die für den Fir­men­be­trieb ein­ge­setz­te PIM-Lösung kann zwar Noti­fi­ca­ti­ons ver­sen­den, scheint aber kei­ne Bad­ges zu unter­stüt­zen. Ich sehe also an der E‑Mail-Kom­po­nen­te nie, wie vie­le unge­le­se­ne E‑Mails ich habe. Sel­bi­ges gilt für die Kalen­der­kom­po­nen­te. Viel­leicht nicht direkt die Schuld von Android, ner­vig ist es trotz­dem. Auf iOS-Gerä­ten lässt sich die von uns ver­wen­de­te Lösung direkt in die nati­ven Apps (Mail, Kon­tak­te, etc.) inte­grie­ren. Das scheint mit dem ach-so-offe­nen Android aus irgend­ei­nem Grun­de nicht zu gehen, ver­mu­te ich mal.

Dann ist es so, dass ich eini­ge Apps tat­säch­lich auf die SD-Kar­te ver­schie­ben konn­te. Ich glau­be, dass es aus­schließ­lich Apps aus dem Ama­zon-App-Store waren, kann es aber auch nicht beschwö­ren. Es geht aber defi­ni­tiv nicht mit allen Apps von Ama­zon. Die Logik dahin­ter erschließt sich mir nicht. Und das mir als IT-Pro­fi, der seit rund 16 Jah­ren in dem Bereich tätig ist. Ich fra­ge mich, was ein Laie davon hal­ten wür­de …

Als ich über die Unter­schie­de zwi­schen ART und Dal­vik las und erfuhr, wie man umschal­tet, woll­te ich das doch gleich mal aus­pro­bie­ren. Das funk­tio­nier­te auch pro­blem­frei. Läs­tig ist aber, dass das Opti­mie­ren der Apps jetzt bei jedem Neu­start erfolgt. Den Sinn dahin­ter ver­ste­he ich nicht.

Mei­ne Ver­su­che, Cal­DAV-Kalen­der und Card­DAV-Adress­bü­cher anzu­bin­den, schei­ter­ten. Dafür ist eine Zusatz­soft­ware erfor­der­lich. Das ach-so-offe­ne Android erschwert einem hier den Weg, offe­ne Pro­to­kol­le für die­se Din­ge zu ver­wen­den. Mut­maß­lich, um die Goog­le-eige­nen Diens­te zu pushen. So muss­ten mei­ne own­Cloud-Anbin­dun­gen über Zusatz­soft­ware erle­digt wer­den.

Immer wie­der nach dem Ent­sper­ren oder auch einem Neu­start habe ich Absturz­mel­dun­gen auf dem Bild­schirm, bei denen ich mich fra­ge, wie­so mir die über­haupt ein­ge­blen­det wer­den. Wenn im Hin­ter­grund Diens­te lau­fen, die abstür­zen, wäh­rend ich das Tele­fon nicht ver­wen­de, dann sol­len die doch ein­fach neu­ge­star­tet wer­den. Das inter­es­siert mich nach dem Ent­sper­ren doch kein Stück.

Fazit: Android ist nicht schlecht, aber das War­ten auf ein Update, das mitt­ler­wei­le zwei Mona­te am Markt ist, nervt mich jetzt schon. Ob ich 5.1 bekom­men wer­de, weiß ich jetzt noch nicht. Die Absturz­mel­dun­gen erge­ben kei­nen Sinn und das Ver­hal­ten bzgl. der SD-Kar­te ist ein­fach nur inkon­sis­tent. Ich wer­de die­ses Tele­fon nun noch eini­ge Mona­te im Ein­satz las­sen. Im Gro­ben und Gan­zen kann ich recht gut damit arbei­ten. Den­noch ver­ste­he ich nicht, wie sich eine so gro­ße Fan­ge­mein­de um das Betriebs­sys­tem her­um hat auf­bau­en kön­nen.

iOS mag zwar recht geschlos­sen sein, dafür aber funk­tio­niert es (in der Regel) ein­fach. Die Inkon­sis­ten­zen, die ich auf mei­nem Android-Gerät erle­ben muss, habe ich auf mei­nem iPho­ne nicht. Wer ger­ne bas­telt, ist mit Android recht gut bera­ten. Bei mir ebb­te der Bas­tel­trieb aber nach weni­gen Tagen ab. Ich habe jetzt eine Kom­bi­na­ti­on, mit der ich pro­duk­tiv arbei­ten kann. Bevor ich an die­ser wie­der etwas ändern wer­de, wer­den sicher­lich eini­ge Mona­te ins Land gehen. Ob das nötig ist, mag man sich jetzt fra­gen. Mei­ne Ant­wort dar­auf ist ein bestimm­tes Jein. Man kann es, also wird man es ver­mut­lich auch tun, aber ich wäre auch nicht böse, wenn es nicht gin­ge …

Kategorien
Apple Open Source Technologie

GeoTagging mit dem iPhone [Update]

Da ich trotz meh­re­rer Goog­le-Anfra­gen kei­ne brauch­ba­ren Ergeb­nis­se bekom­men habe, möch­te ich hier die Ergeb­nis­se mei­ner Recher­chen kund­tun:

Seit der aktu­el­len Ver­si­on kann iPho­to auch GPS-Tags aus Bil­dern aus­le­sen. iPho­ne-Besit­zer ken­nen das schon, die Auf­nah­me­or­te wer­den inner­halb der Appli­ka­ti­on wun­der­schön auf einer Kar­te ange­zeigt. Eine tol­le Sache, da man immer genau weiß, wo man sei­ne Bil­der auf­ge­nom­men hat. Aber das iPho­ne eig­net sich nun mal natur­ge­mäß nur sehr bedingt zum Foto­gra­fie­ren. Wer nun gern sei­ne Fotos einer regu­lä­ren Kame­ra mit Geo­Tags, also GPS-Koor­di­na­ten des Auf­nah­me­orts, ver­se­hen woll­te, kennt das Pro­blem viel­leicht: man muss sich einen GPS-Emp­fän­ger kau­fen (ab ca. 60,- EUR auf­wärts), des­sen Daten dann nach erfolg­ter Foto­ses­si­on zumeist im GPX-For­mat auf den Rech­ner kopie­ren, die Daten mit den Fotos ver­knüp­fen und sich dann end­lich zurück­leh­nen. Ich spiel­te schon mit dem Gedan­ken, mir einen sol­chen GPS-Emp­fän­ger zu kau­fen, bis mir dann irgend­wann ein­fiel, dass ich ja ein GPS-fähi­ges Gerät stän­dig am Kör­per tra­ge. Ja, mein heiß­ge­lieb­tes iPho­ne. Dass das Ding eine eier­le­gen­de Woll­milch­sau ist, wuss­te ich ja schon lan­ge, aber die­ser Fak­tor hat sich mit dem heu­ti­gen Tage ver­stärkt.

Also habe ich mich auf die Suche nach ver­füg­ba­ren Geo­tra­cking-Lösun­gen für das iPho­ne gemacht und bin auch auf einen gan­zen Hau­fen eben­die­ser gestos­sen. Die meis­ten unter­stüt­zen auch den Export ins GPX- oder KML-For­mat, sodass man die Daten dann nach­träg­lich mit den Fotos ver­bin­den kann. Kei­ne schlech­te Sache, nur etwas umständ­lich. Als kos­ten­lo­se Lösung sei hier GPS Tra­cker zu erwäh­nen, das an einen Web­ser­vice geknüpft ist. Auch einen inter­es­san­ten Ein­druck, obwohl ich es nicht ken­ne, macht Trails — GPS Log­buch, für 3,99 € sicher­lich auch einen Blick wert. Um die mit die­sen Anwen­dun­gen gewon­ne­nen Daten mit den Fotos zu ver­knüp­fen, bedarf es einer wei­te­ren Anwen­dung. Für den Mac habe ich die kos­ten­freie Anwen­dung myT­racks ent­deckt. Das Inter­face ist hübsch und über­sicht­lich und stammt außer­dem, wie der Rest der Anwen­dung auch, aus Deutsch­land. Win­dows-Benut­zer muss ich lei­der bit­ten, sich selbst auf die Suche zu machen 😉 Aber auch für Win­dows und selbst­ver­ständ­lich auch Linux soll­te es meh­re­re Lösun­gen geben.

Wer nur Geo­Tags in sei­ner Flickr-Bil­der­samm­lung braucht, dem sei Pho­to­Lo­catr wärms­tens emp­foh­len. Es tut näm­lich genau das und nur das, es taggt eure vor­han­de­nen Flickr-Bil­der. Erfor­der­lich für die Ver­wen­dung die­ses Pro­gramms ist also ein Flickr-Account und natür­lich eini­ge Bil­der, die sich in die­sem Account tum­meln, sonst ist es ziem­lich witz­los.

Der abso­lu­te Gewin­ner mei­ner Recher­chen ist aber unbe­dingt Geo­Log­Tag. Ins­be­son­de­re für Mac-Anwen­der ist es ein­fach die kom­for­ta­bels­te Lösung über­haupt. Es gin­ge zwar noch eine Stu­fe kom­for­ta­bler, aber dazu spä­ter mehr. Die Anwen­dung kos­tet schlap­pe 3,99 € und ersetzt nicht nur ein sepa­ra­tes Gerät, son­dern auch eine sepa­ra­te Soft­ware auf dem Mac. Für die Anwen­dung gilt das glei­che wie für alle ande­ren Geot­ag­ger: das Ding muss lau­fen, wäh­rend man sei­ne Fotos macht, logisch. Sobald die App mit der Auf­zeich­nung der Weg­punk­te begon­nen hat, kann man drauf los­knip­sen. Wenn man mit dem Foto­gra­fie­ren fer­tig ist, stoppt man die Auf­zeich­nung und kann die App wie­der schlie­ßen. Zuhau­se ange­kom­men, schliesst man wie gewohnt sei­ne Kame­ra an den Mac an, impor­tiert die Bil­der aber vor­erst nicht in iPho­to, son­dern mit dem Dienst­pro­gramm “Digi­ta­le Bil­der”. Als Ziel­ord­ner soll­te ein Ver­zeich­nis unter­halb des eige­nen “Öffentlich”-Ordners ange­ge­ben wer­den. Die­ser besag­te Ord­ner muss nun auch noch für Gäs­te zum Lesen und Schrei­ben frei­ge­ge­ben wer­den. Ist all dies erle­digt, star­tet man auf sei­nem iPho­ne die App und wählt die Opti­on “Geo­Tag”. Hier wird nun der soeben ange­leg­te und frei­ge­ge­be­ne Ord­ner aus­ge­wählt, die vor­han­de­nen Bil­der wer­den ange­zeigt und mit Geo-Infor­ma­tio­nen bestückt. Nach­dem die iPho­ne-App damit fer­tig ist, kann man die Bil­der ein­fach in iPho­to zie­hen und… das war’s. Die Bil­der sind mit Geo-Infor­ma­tio­nen getaggt wor­den und kön­nen nun in iPho­to unter “Orte” ange­zeigt wer­den. Mac-User sind hier also fein raus, weil sie mit iPho­to ’09 eine Anwen­dung haben, die Geo-Infor­ma­tio­nen aus­le­sen und ver­wer­ten kann und mit Geo­Log­Tag voll­au­to­ma­tisch Bil­der geot­ag­gen kön­nen. Per­fekt wäre nun nur noch, dass die App direkt auf die Bil­der­bi­blio­thek von iPho­to zugrei­fen kann, was aber aus diver­sen Grün­den wohl nie­mals gehen wird. Win­dows- und Linux-Nut­zer kön­nen zwar eben­falls mit­tels die­ser App ihre Fotos geot­ag­gen, aber nur über den Umweg des Exports der GPS-Daten und der anschlies­sen­den Kom­bi­na­ti­on bei­der Daten.

Ach ja, nicht ganz unwich­tig, ganz im Gegen­teil, ist die Tat­sa­che, dass Geo­Log­Tag kei­ne Online-Ver­bin­dung benö­tigt und somit auch im Aus­land kos­ten­frei nutz­bar ist 🙂 Die meis­ten ande­ren Lösun­gen, die ich ken­ne, gehen näm­lich online, um eine Kar­te oder ähn­li­ches anzu­zei­gen, was aber viel­leicht nicht unbe­dingt immer gewünscht ist. Im Fal­le eines Aus­lands­auf­ent­halts ist es sogar ganz und gar nicht gewünscht, weil das ganz schön ins Geld gehen kann.

Soll­ten euch wei­te­re emp­feh­lens­wer­te Apps bekannt sein, wäre ich für Kom­men­ta­re dank­bar. Auch Soft­ware­lö­sun­gen für die Kom­bi­na­ti­on und Ver­wen­dung der Geo-Daten für Win­dows und Linux wären sicher­lich inter­es­sant. Soll­te euch also ent­spre­chen­des bekannt sein, wäre ich für einen kur­zen Link in den Kom­men­ta­ren sehr dank­bar.

[Update]

Die ein­fachs­te Metho­de für Win­dows und Linux scheint die Ver­wen­dung von Pica­sa in Ver­bin­dung mit Goog­le Earth zu sein. Nach dem Import der KML- oder GPX-Daten in Goog­le Earth könnt ihr eure Fotos mit einem Klick in Pica­sa auf “Geo­tag” mit Tags ver­se­hen. Bei mei­nem Test mit der Win­dows-Ver­si­on funk­tio­nier­te das ein­wand­frei, die GPS-Koor­di­na­ten des Fotos stan­den nach dem Tag­gen in den EXIF-Infor­ma­tio­nen des Fotos.

Kategorien
Apple Open Source Technologie

Time Machine und FreeNAS

Nach eini­gen Stun­den Web­re­cher­che und tes­ten habe ich nun end­lich eine Mög­lich­keit gefun­den, zuver­läs­sig Back­ups via Time Machi­ne auf ein Gerät mit dem NAS-Sys­tem Free­NAS zu rea­li­sie­ren.

Wie viel­leicht bekannt ist, hat Apple mit Mac OS X 10.5.2 die Mög­lich­keit offi­zi­ell gestri­chen, Back­ups mit­tels Time Machi­ne auf Netz­werk­vo­lu­mes vor­zu­neh­men, die kei­ne Time Cap­su­le bezie­hungs­wei­se Air­Port Extre­me mit ange­schlos­se­ner USB-Fest­plat­te sind. Das ist inso­fern ärger­lich, dass Time Cap­su­le mit maxi­mal 1 TB erhält­lich und die Geschwin­dig­keit der Daten­über­tra­gung auf­grund der inter­nen USB-Anbin­dung der Fest­plat­te eher nied­rig ist. Ins­be­son­de­re das initia­le Back­up dau­ert eine hal­be Ewig­keit.

Wer Free­NAS nicht kennt: es han­delt sich dabei um ein Sys­tem, dass auf Free­BSD basiert, also ein UNIX ist, und spe­zi­ell für den Ein­satz auf NAS-Sys­te­men zuge­schnit­ten ist. Die Kon­fi­gu­ra­ti­on erfolgt hier­bei voll­stän­dig über eine über­sicht­li­che Web­ober­flä­che. Die­ses Pro­jekt basiert auf M0n0wall, einer eben­falls auf Free­BSD basie­ren­den inte­grier­ten Fire­wall-Lösung. Die Instal­la­ti­on von Free­NAS kann auf meh­re­re Arten und Wei­sen erfol­gen. So ist es mög­lich, das Sys­tem direkt von einer CD-ROM zu star­ten und die Kon­fi­gu­ra­ti­ons­da­tei­en auf einem MS-DOS-for­ma­tier­ten Daten­trä­ger, wie einem USB-Stick, einer CF-Kar­te oder einer Flop­py abzu­spei­chern. Wer, so wie ich, kein opti­sches Lauf­werk in sei­nem NAS hat, kann das Sys­tem auch auf einem USB-Stick oder einer Fest­plat­te instal­lie­ren. Ich habe die Instal­la­ti­on auf einem USB-Stick gewählt. Mein NAS star­tet also von die­sem Stick und spei­chert sämt­li­che Kon­fi­gu­ra­ti­ons­da­ten auf eben­die­sem. Vor­aus­set­zung dafür ist aber, dass das BIOS das Star­ten von USB-Gerä­ten erlaubt. Außer­dem muss der USB-Stick vor der Instal­la­ti­on mit FAT oder FAT32 for­ma­tiert wer­den und darf erst nach (!) dem Start der Live-CD ange­stöp­selt wer­den. Danach soll­te die Instal­la­ti­on ein­wand­frei lau­fen. Mein Eigen­bau-NAS ver­fügt über ein Board mit Via C7 1 GHz, 1 GB RAM und zwei 1 TB gro­ßen Strom­spar-Fest­plat­ten von Wes­tern Digi­tal. Außer­dem steckt ein 1‑G­bit-NIC von Intel in der Maschi­ne.

Nach der Instal­la­ti­on von Free­NAS muss zuerst die IP des oder der Netz­werk­schnitt­stel­len gesetzt wer­den. Das geht ganz ein­fach über das Text­me­nü des Sys­tems. Jetzt kann man sich von einem belie­bi­gen Rech­ner aus über einen belie­bi­gen Web­brow­ser mit dem NAS ver­bin­den und die wei­te­re Kon­fi­gu­ra­ti­on vor­neh­men. Dazu gibt man ein­fach die soeben ein­ge­ge­be­ne IP-Adres­se in das Adress­feld des Brow­sers ein. Der Benut­zer­na­me lau­tet in der Vor­ein­stel­lung admin, das Kenn­wort free­nas. Free­NAS ver­fügt in der aktu­el­len Ver­si­on über die fol­gen­den Diens­te:

  • CIFS/SMB
  • FTP
  • TFTP
  • SSH
  • NFS
  • AFP
  • Rsync
  • Uni­son
  • iSCSI Tar­get
  • UPnP (Medi­a­ser­ver)
  • iTunes/DAAP
  • Dyna­mic DNS
  • SNMP
  • USV
  • Web­ser­ver
  • Bit­Tor­rent (Web­ver­si­on von Trans­mis­si­on)

All die­se Diens­te las­sen sich äußerst bequem über die Web­ober­flä­che kon­fi­gu­rie­ren, nur in den sel­tens­ten Fäl­len besteht die Not­wen­dig­keit, per Text­edi­tor Hand an irgend­wel­che Kon­fi­gu­ra­ti­ons­da­tei­en zu legen. Ich selbst nut­ze vie­le die­ser Diens­te und alle lau­fen ein­wand­frei.

Nach der Instal­la­ti­on muss man zunächst die verbaute(n) Festplatte(n) für die Benut­zung vor­be­rei­ten. Ich gehe davon aus, dass die Fest­plat­ten leer sind und noch über kein Datei­sys­tem ver­fü­gen. Free­BSD ver­wen­det GEOM zur Erstel­lung und für das Manage­ment von RAID-Sys­te­men, die sich eben­falls ganz bequem über die Web­ober­flä­che ein­rich­ten las­sen. Da ich eine Wei­le gebraucht habe, um die kor­rek­te Rei­hen­fol­ge für die Erstel­lung eines RAID her­aus­zu­fin­den, hier eine klei­ne Anlei­tung:

  1. Es müs­sen die Fest­plat­ten über den Menü­punkt Fest­plat­ten -> Manage­ment hin­zu­ge­fügt wer­den. Wel­che Ein­stel­lun­gen ihr hier­bei wählt, bleibt euch über­las­sen, nur muss das Datei­sys­tem auf Soft­ware RAID ein­ge­stellt wer­den, damit die Plat­ten nach­her einem RAID-Ver­bund hin­zu­ge­fügt wer­den kön­nen.
  2. Über den Menü­punkt Fest­plat­ten -> Soft­ware RAID fügt ihr dann die Plat­ten zu eurem RAID-Ver­bund hin­zu. Wel­chen RAID-Modus ihr hier­bei wählt, ist euch über­las­sen. GEOM Stripe/Mirror/Raid5 ist die alt­her­ge­brach­te Lösung unter Free­BSD zur Erstel­lung von RAIDs, GEOM Vinum ist recht neu, soll aber laut diver­ser Web­quel­len sta­bil sein. Ich habe GEOM Vinum gewählt.
  3. Danach müsst ihr euer RAID for­ma­tie­ren, das geht ganz ein­fach über den Menü­punkt Fest­plat­ten -> For­ma­tie­ren. Unter “Fest­plat­te” wählt ihr euer RAID aus, als Datei­sys­tem soll­tet ihr auf jeden Fall das nati­ve Datei­sys­tem unter UNIX, UFS, wäh­len. Alle ande­ren Datei­sys­te­me wer­den nicht offi­zi­ell unter­stützt.
  4. Unter Fest­plat­ten -> Ein­hän­ge­punkt wählt ihr nun einen Namen für den Mount­point. Die­ser spielt für die spä­te­re Benut­zung kaum eine Rol­le, Datei­frei­ga­ben via CIFS bzw. AFP wer­den unter die­sem Namen im Explo­rer bzw. Fin­der ange­zeigt. Der Par­ti­ti­ons­typ soll­te bei einem neu ange­leg­ten RAID auf GPT ste­hen, das Datei­sys­tem wählt ihr ent­spre­chend eurer Ein­stel­lung aus 3., in mei­nem Fal­le also UFS. Alle wei­te­ren Ein­stel­lun­gen könnt ihr, sofern ihr es nicht bes­ser wisst, auf Stan­dard belas­sen.

Nach­dem ihr euer RAID für die Benut­zung erstellt habt, könnt ihr euch nun an die Kon­fi­gu­ra­ti­on der von euch benö­tig­ten Diens­te machen. Die Dia­lo­ge sind selbst­er­klä­rend, des­we­gen fol­gen hier auch kei­ne wei­te­ren Erläu­te­run­gen von mir. Für vie­le der Diens­te macht es aber Sinn, einen loka­len Benut­zer zu erzeu­gen, mit dem ihr euch spä­ter am NAS anmel­det. Dies geht über den Menü­punkt Zugriff -> Benut­zer & Grup­pen. Soll­tet ihr spä­ter Zugriff per SSH auf die Maschi­ne wün­schen, ach­tet dar­auf, dass ihr den Haken ganz unten, Vol­ler Kom­man­do­zei­len­zu­gang für Benut­zer!, setzt. Außer­dem soll­te euer Benut­zer Mit­glied der Grup­pe wheel sein, wenn ihr euch mit dem Befehl “su root” zum Root-Benut­zer machen wollt. Im Nor­mal­fall soll­te das nicht nötig sein, aber man kann ja nie wis­sen 😉

Nun zu Time Machi­ne: wenn man schon ein NAS mit rund 2 TB Fest­plat­ten­ka­pa­zi­tät sein Eigen nennt, das auch noch per Giga­bit im Heim­netz ange­bun­den ist, macht es durch­aus Sinn, sei­ne Time Machi­ne-Back­ups auf die­sem NAS abzu­le­gen. Dank der Anlei­tung von Alper Ise­ri war das glück­li­cher­wei­se nicht wei­ter schwie­rig. Wie ein­gangs erwähnt, mag Apple das aber nicht, des­we­gen muss man OS X erst mal mit dem Ter­mi­nal­be­fehl

defaults wri­te com.apple.systempreferences TMShowUn­sup­por­ted­Net­work­Vo­lu­mes 1

dazu über­re­den, auch nicht-unter­stütz­te Netz­werk­vo­lu­mes für Time Machi­ne zu akzep­tie­ren. Tes­tet danach gleich mal, ob es funk­tio­niert, indem ihr Time Machi­ne über die Sys­tem­ein­stel­lun­gen öff­net und ein Volu­me aus­wählt. Taucht euer NAS dort auf, ist soweit schon mal alles in But­ter. Wenn ihr jetzt aber ver­sucht, eine Siche­rung auf eben­die­ses Gerät vor­zu­neh­men, wer­det ihr lei­der ent­täuscht, Time Machi­ne bricht mit einer Feh­ler­mel­dung ab. Um die­ses Pro­blem zu behe­ben, gebt ihr fol­gen­des Kom­man­do im Ter­mi­nal ein:

hdiutil crea­te ‑size $GRÖSSEg ‑fs HFS+J ‑type SPARSEBUNDLE ‑vol­na­me “iMac Back­up” COMPUTERNAME_MACADRESSE.spar­se­bund­le

GRÖSSE muss hier­bei durch eine Zahl ersetzt wer­den. Das klei­ne g steht für Giga­byte. Der hier ange­ge­be­ne Wert bestimmt die Maxi­mal­grö­ße des mit die­sem Befehl ange­leg­ten Images. Über den Schal­ter ‑fs wird fest­ge­legt, dass als Datei­sys­tem für die­ses Image HFS Jour­nal­ed ver­wen­det wer­den soll. ‑vol­na­me legt den Namen des Images fest, der im Fin­der ange­zeigt wer­den soll, also bei­spiels­wei­se “iMac Back­up”. Den Com­pu­ter­na­men fin­det ihr den Sharing-Ein­stel­lun­gen in den Sys­tem­ein­stel­lun­gen von Mac OS. Soll­tet ihr Leer­zei­chen in eurem Com­pu­ter­na­men ver­wen­den, müsst ihr nach dem jewei­li­gen Wort einen Back­slash, \ (Tas­ten­kom­bi­na­ti­on Shift-Alt‑7), ein­ge­ben. Also zum Bei­spiel “Ulfs\ iMac”. Die MAC-Adres­se bekommt ihr am Ter­mi­nal mit­tels des Befehls “ifcon­fig” oder über Netz­werk in den Sys­tem­ein­stel­lun­gen. Die MAC-Adres­se muss hier­bei ohne die Dop­pel­punk­te ange­ge­ben wer­den. Da die­ses Back­up an die MAC-Adres­se gebun­den ist, soll­tet ihr nicht ver­su­chen, das Back­up über eine ande­re Netz­werk­schnitt­stel­le zu ver­wen­den. Habt ihr also bei der Erstel­lung des Images eure LAN-Schnitt­stel­le ver­wen­det, ver­sucht bit­te nicht spä­ter die WLAN-Schnitt­stel­le zu benut­zen. Soll­te alles geklappt haben, kopiert ihr nun die­ses Spar­se-Bund­le in das Haupt­ver­zeich­nis eurer Netz­werk­frei­ga­be. Soll­tet ihr AFP ein­ge­rich­tet haben, dürf­te euer Fin­der euch das Sys­tem auch gleich anzei­gen und ihr könnt euch ver­bin­den. Wich­tig ist, dass das Image direkt ins Haupt­ver­zeich­nis kopiert wird, Unter­ver­zeich­nis­se wer­den nicht unter­stützt. Das funk­tio­niert natür­lich auch für meh­re­re Macs.

Jetzt könnt ihr Time Machi­ne anwei­sen, dass es euer NAS als Back­up-Volu­me ver­wen­den soll. Kurz nach dem Start des Back­ups dürf­te Mac OS das von euch erstell­te Image moun­ten und mit der Siche­rung begin­nen. Der Benut­zer­na­me und das Kenn­wort, das Time Machi­ne beim ers­ten Mal haben möch­te, ent­spricht dem Benut­zer­na­men und dem zuge­hö­ri­gen Kenn­wort des Benut­zers, den ihr auf dem NAS ange­legt habt.

Soll­tet ihr in eurem Log fol­gen­den Feh­ler bekom­men

afpd[pid]: bad func­tion 4F

habt ihr auch schon den Grund dafür gefun­den, dass Time Machi­ne sein Image nicht selbst erstel­len kann. Laut einem Bei­trag in den Free­NAS-Foren ist die­se Funk­ti­on in der neta­talk-Ver­si­on von Free­NAS noch nicht imple­men­tiert. Die­se Mel­dung könnt ihr aber getrost igno­rie­ren, das Image besteht ja bereits. In Zukunft soll die­se Funk­ti­on aber nach­ge­rüs­tet wer­den.

afpd[pid]: bad func­tion 4C

ist ein Feh­ler­code, den Spot­light gene­riert. Auch den könnt ihr igno­rie­ren.

Kategorien
Open Source Ubuntu

Noch zwei Wochen…

dann ist es so weit, die neue Ver­si­on von Ubun­tu erscheint. Bei mei­nen bis­he­ri­gen Geh­ver­su­chen mit die­ser Ver­si­on (der­zeit in der Beta erhält­lich), fiel mir ins­be­son­de­re die deut­lich kür­ze­re Start­zeit des Sys­tems auf.

Ubuntu 9.04 - on desktops, netbooks, servers and in the cloud

Kategorien
Closed Source Mac Open Source Technik Windows

Onlinefestplatte und Filesharing

Zufäl­lig bin ich durch eine kur­ze Erwäh­nung im, ich glau­be wenigs­tens, Linux Maga­zin dar­auf gestos­sen: Drop­box, ein wei­te­rer Online­fest­plat­ten­dienst. Also eigent­lich nix beson­de­res.

Toll fin­de ich aber an Drop­box die gesam­te Imple­men­tie­rung. Das Cli­en­t­tool exis­tiert sowohl für Mac OS X, als auch für Linux und Win­dows. Für Ubun­tu gibt es sogar ein Repo­si­to­ry, man muss das Paket also nicht mal per Hand instal­lie­ren oder updaten. Aber auch die Mac-OS-X- und Win­dows-Ver­si­on ist in Win­des­ei­le instal­liert und updated sich auto­ma­tisch.

Bei der Erst­in­stal­la­ti­on wird gleich ein Benut­zer­kon­to bei Drop­box erstellt und das Sys­tem, auf dem man instal­liert wird mit dem eige­nen Account ver­knüpft. Der hier­bei ange­leg­te kos­ten­freie Account bie­tet 2 GB Spei­cher­platz und unli­mi­tier­ten Daten­trans­fer. Für 9,99 $ im Monat oder 99 $ im Jahr kann der Spei­cher­platz auf 50 GB auf­ge­rüs­tet wer­den.

Die Soft­ware erzeugt bei der Instal­la­ti­on einen Ord­ner “My Drop­box” im Home-Ver­zeich­nis des aktu­el­len Benut­zers. Die­ser Ort kann aber auch ver­än­dert wer­den, sowohl bei als auch nach der Instal­la­ti­on, letz­te­res soll aber laut Bug­tra­cker im aktu­el­len Beta-Sta­di­um noch Pro­ble­me machen. Daten, die man in die­sen Ord­ner legt, wer­den stän­dig syn­chron gehal­ten und laut Anbie­ter “intel­li­gent” syn­chro­ni­siert, es wird also nur der binä­re Diff tat­säch­lich kopiert, um Band­brei­te zu spa­ren. Vor der Über­mitt­lung der Daten an den Ser­ver wer­den die­se mit­tels AES ver­schlüs­selt.

Was aber, wenn man gera­de kei­nen Rech­ner parat hat, auf dem man den Cli­ent instal­lie­ren kann? Kein Pro­blem, sämt­li­che Daten las­sen sich über das Web­in­ter­face des Ser­vices ein­se­hen, her­un­ter­la­den, löschen, etc. Soll­te man, egal ob via Cli­ent oder Web­ba­ckend, Daten ver­se­hent­lich gelöscht oder modi­fi­ziert haben, kann man auf die Ver­sio­nie­rung des Diens­tes zurück­grei­fen, die gelösch­ten Daten sind nicht unwi­der­ruf­lich ver­lo­ren, sie las­sen sich dank die­ses Fea­tures wie­der her­stel­len.

Der­zeit befin­det sich der Ser­vice, wie bereits erwähnt, noch im Beta­sta­di­um. Umfang­rei­che Daten­samm­lun­gen wür­de ich also nicht unbe­dingt ohne Red­un­danz hier able­gen wol­len. Bis­her habe ich kei­ne Daten­ver­lus­te zu bekla­gen, ich nut­ze den Ser­vice aber auch nicht sehr inten­siv. Ins­ge­samt macht der Dienst aber einen schon sehr aus­ge­reif­ten Ein­druck. Neben den bereits erwähn­ten Tari­fen (2 GB für lau, 50 GB für 9,99 $ monat­lich oder 99 $ p.a.) sol­len in der nächs­ten Zeit wei­te­re Tari­fe ent­ste­hen, die auch die Ansprü­che ande­rer Benut­zer­grup­pen erfül­len.

Bleibt noch zu erwäh­nen, dass man mit­tels des Public-Ver­zeich­nis­ses der Drop­box Daten auch Fremd­be­nut­zern zur Ver­fü­gung stel­len kann.

Dau­men hoch für die­sen tol­len Ser­vice und viel Erfolg wei­ter­hin dem gesam­ten Team von Drop­box. Wei­te­re Infor­ma­tio­nen fin­det ihr auf der Home­page des Pro­jekts. Ich habe test­hal­ber ins­ge­samt sechs ver­schie­de­ne Sys­te­me mit mei­nem Account ver­knüpft und konn­te bei ers­ten Tests kei­ner­lei Pro­ble­me fest­stel­len.

[UPDATE]

Mitt­ler­wei­le nut­ze ich die Sharing-Funk­ti­on tat­säch­lich pro­duk­tiv, eine wirk­li­che Erleich­te­rung zum Aus­tausch von Doku­men­ten, Quell­codes, etc. Ein­fach toll. Den Emp­feh­lungs­le­vel set­ze ich somit noch um einen nach oben ;-)

Kategorien
Open Source Ubuntu

Empfehlenswertes für Ubuntu aus meiner Sicht

Zu die­sem The­ma gibt es bereits jede Men­ge Arti­kel im Inter­net.

Emp­feh­lens­wert fin­de ich bei­spiels­wei­se die­se bei­den hier:

The Per­fect Desk­top — Ubun­tu 8.04 LTS Har­dy Heron

My per­fect desk­top — Ubun­tu 8.04 aka Pimp your desk­top

Mit man­chen Vor­schlä­gen bin ich nicht ganz so ein­ver­stan­den, ich mag es bei­spiels­wei­se gene­rell nicht, KDE-Anwen­dun­gen in einem GNO­ME-Sys­tem zu instal­lie­ren, aber das dürf­te Geschmacks­sa­che sein.

Auf einem frisch instal­lier­ten Ubun­tu instal­lie­re ich zumeist erst mal die fol­gen­den Pake­te:

ubun­tu-restric­ted-extras
build-essen­ti­al

Die ubun­tu-restric­ted-extras beinhal­ten Win­dows-Schrif­ten, das Flash-Plugin für Fire­fox, vie­le Medi­a­co­decs und noch vie­le ande­re nütz­li­che Din­ge. Wer jetzt noch ver­schlüs­sel­te Film-DVDs anschau­en möch­te, braucht zusätz­lich noch das Paket “libdvdcss”. Des­sen Ein­satz ist aber wohl nicht über­all ganz legi­tim, am Bes­ten vor­her im Netz schlau lesen.

Außer­dem füge ich das Medi­b­un­tu-Repo­si­to­ry hin­zu. Damit las­sen sich bei­spiels­wei­se der Acro­bat Rea­der (wird lei­der trotz vor­in­stal­lier­tem PDF-View­er unter Ubun­tu gele­gent­lich benö­tigt, für ver­schlüs­sel­te PDF-Datei­en bspw.; Paket­na­men: acro­read und mozil­la-acro­read) und Sky­pe instal­lie­ren.

Außer­dem gehö­ren zu den Stan­dard-Zusatz­pa­ke­ten bei mei­nen Instal­la­tio­nen noch die Packa­ges

file­zil­la
gedit-plugins

damit ich einen guten und sta­bi­len FTP-Cli­ent und wei­te­re Plugins für den genia­len Text­edi­tor GEdit zur Ver­fü­gung habe.

Um den Web­brow­ser Ope­ra über die Repo­si­to­ries zu instal­lie­ren, sind noch die fol­gen­den Schrit­te erfor­der­lich:

Ter­mi­nal öff­nen und fol­gen­den Befehl ein­ge­ben:

wget ‑O — http://deb.opera.com/archive.key | sudo apt-key add -

Dann über die Paket­quel­len von Ubun­tu noch fol­gen­den zusätz­li­chen Ein­trag hin­zu­fü­gen:

deb http://deb.opera.com/opera etch non-free

Schon lässt sich Ope­ra via Syn­ap­tic instal­lie­ren und aktua­li­siert sich auch auto­ma­tisch.

Mit den Pake­ten

gno­me-do
gno­me-do-plugin-rhyth­m­box
gno­me-do-plugins

lässt sich ein tol­ler Schnell­star­ter à la Quick­Sil­ver (die Mac-User unter uns wis­sen, was gemeint ist) unter Ubun­tu instal­lie­ren.

Mit dem Paket

avant-win­dow-navi­ga­tor

kann man einen net­ten Dock-Clo­ne (wie­der von Mac OS ent­lehnt) instal­lie­ren.

Der “com­piz­con­fig-set­tings-mana­ger” lässt die Com­piz-Effek­te leich­ter kon­fi­gu­rie­ren, damit man sol­che net­ten Effek­te wie einen 3D-Wür­fel für den Desk­top-Wech­sel und ande­res akti­vie­ren kann.

Wer mit Java pro­gram­mie­ren möch­te, soll­te fol­gen­de Pake­te instal­lie­ren:

sun-java6-jdk
sun-java6-fonts
sun-java6-plugin (Java-Plugin für den Fire­fox)

Zu guter letzt akti­vie­re ich noch den Index-Dienst, der das Auf­fin­den und Durch­su­chen von Datei­en deut­lich beschleu­nigt. Wer genug Rechen­leis­tung und RAM hat, soll­te dies auf jeden Fall tun. 2 GHz und 1 GB RAM sind dafür mehr als aus­rei­chend.

Mei­ne Güte, ob ich in der nächs­ten Zeit auch noch mal über etwas ande­res schrei­be als Linux?

Kategorien
Open Source Ubuntu

Ubuntu auf einem Medion MD9580‑F

Nur für den Fall, dass jemand ähn­li­ches vor hat, hier mal eine klei­ne Beschrei­bung, wie man vor­zu­ge­hen hat.

Das Note­book gehört einer guten Freun­din von mir, die sich lei­der lei­der kein neu­es Note­book leis­ten kann. Das gute Stück beher­bergt einen rasend schnel­len Pen­ti­um III mit 1 GHz und 256 MB SDRAM. Die Fest­plat­te fasst 20 GB und als opti­sches Lauf­werk kommt ein DVD-Lauf­werk zum Ein­satz. Win­dows XP wur­de zwar mit­ge­lie­fert, läuft aber mehr als beschei­den, arbei­ten ist eigent­lich aus­ge­schlos­sen, wenigs­tens für mein Emp­fin­den viel zu lang­sam. Aber auch die Besit­ze­rin beschwer­te sich das eine oder ande­re Mal. Also beschloss ich, Win­dows zu ent­fer­nen und Ubun­tu zu instal­lie­ren.

Gar nicht so leicht, soll­te sich her­aus­stel­len. Ers­tens macht die mage­re Arbeits­spei­cher­aus­stat­tung Pro­ble­me und zwei­tens ist die Geschwin­dig­keit des DVD-Lauf­werks eine Kata­stro­phe. Damit das Note­book auch Kon­takt zum Netz­werk via WLAN her­stel­len kann, befin­det sich ein DWL-650G+-Adapter im PCMCIA-Slot des Note­books. Ers­te Ver­su­che, das Gerät mit einer Ubuntu‑8.04-CD zum Star­ten zu bewe­gen schlu­gen voll­stän­dig fehl. Auch Ubun­tu 6.06, 7.10 und 8.04 lies­sen sich nicht zum Star­ten zu bewe­gen. Wäh­rend des Boot­vor­gangs fror das Note­book voll­stän­dig ein. Alter­na­te-CDs woll­ten eben­falls nicht. Glei­ches galt für die jewei­li­gen Ver­sio­nen von Xubun­tu. Ein­fach kei­ne Chan­ce. Die ein­zi­ge Ver­si­on von Ubun­tu und Xubun­tu, die sich zum Star­ten bewe­gen las­sen woll­te, war die 7.04, die mitt­ler­wei­le lei­der nicht mehr auf den Ubun­tu-Ser­vern zu bekom­men ist. Glück­li­cher­wei­se hat­te ich noch eine soche CD in mei­nem Schrank lie­gen. Mit­tels die­ser CD kann man aber ohne gro­ße Schwie­rig­kei­ten auf Ver­si­on 8.04 und ver­mut­lich auch 8.10 upgraden. Ver­si­ons­sprün­ge lässt Syn­ap­tic lei­der nicht zu, von Ver­si­on 7.04 mach­te ich zuerst ein Upgrade auf 7.10 um dann das Upgrade auf 8.04 anzu­schub­sen. Sel­bi­ges läuft gera­de, schon seit einer gan­zen Wei­le. Ob ich auf 8.10 upgrade weiß ich aber noch nicht. Ubun­tu 7.04 star­te­te zwar, mach­te aber wäh­rend der Instal­la­ti­on schlapp, was ver­mut­lich am mage­ren RAM-Aus­bau liegt. Xubun­tu hin­ge­gen läuft seit der Instal­la­ti­on der 7.04 gut und sta­bil, das Note­book läuft nun seit mitt­ler­wei­le 24 Stun­den durch, ohne einen Absturz. Und sogar aus­rei­chend schnell, man kann echt mit dem Sys­tem arbei­ten.

Wer also ver­su­chen möch­te, dem alten Gerät mit­hil­fe von Linux noch ein wenig Leben ein­zu­hau­chen, da es für XP ein­fach zu schwach ist, dem sei Xubun­tu emp­foh­len. Upgrade­pfad von 7.04 über 7.10 auf 8.04 und ver­mut­lich dann auch auf 8.10. Ach ja, die WLAN-Kar­te läuft schon mit 7.04 ein­wand­frei ohne Umbie­ge­rei.

Ich hof­fe, gehol­fen zu haben ;-) Im Not­fall erklä­re ich mich auch gern bereit, die 7.04 i386 auf mei­nen Ser­ver hoch­zu­la­den.

PS: Mitt­ler­wei­le die vier­te Frau, die auf ihrem Rech­ner ein Ubun­tu nutzt :-D Klar, Linux ist kom­pli­ziert…

[UPDATE]

Noch ein­fa­cher geht’s im Übri­gen wenn man den Net­in­stal­ler benutzt :-D Der zieht alle nöti­gen Pake­te und instal­liert sofort ein fer­ti­ges Xubun­tu 8.10. Scha­de nur, dass der auf der Home­page von Ubun­tu nicht zu fin­den ist, habe ihn in den Tie­fen des FTP-Ser­vers gefun­den.

Kategorien
Open Source Ubuntu

Es ist da

Ubun­tu 8.10 wur­de vor ca. 1,5 Stun­den zur Ver­fü­gung gestellt. Wer mag, kann sich die ISOs gleich von mei­nem Ser­ver zie­hen:

Ubun­tu 8.10 i386 Live CD

Ubun­tu 8.10 AMD64 Live CD

Viel Spaß :-)

[UPDATE]

Nun hab ich auch noch die Live-CD-ISOs von Kubun­tu und Xubun­tu 8.10:

Kubun­tu 8.10 i386 Live CD

Kubun­tu 8.10 AMD64 Live CD

Xubun­tu 8.10 i386 Live CD

Xubun­tu 8.10 AMD64 Live CD