Kategorien
Linux Open Source Software Technik

netcup vServer — gut und günstig

Bis ich mei­ne Selbst­stän­dig­keit an den Nagel gehängt habe, hat­te ich die für mei­ne Arbeit not­wen­di­gen Root-Ser­ver immer bei Hetz­ner. Die Ser­ver dort sind für den Preis wirk­lich gut, der Ser­vice stimmt auch. Als ich dann aber in eine Fest­an­stel­lung über­ging, benö­tig­te ich natür­lich kei­nen gan­zen Root-Ser­ver mehr. Ich ent­schied mich für einen vSer­ver, der güns­tig sein soll­te, aber auch genü­gend Fest­plat­ten­platz bie­ten soll­te, damit ich mei­ne pri­va­te own­Cloud-Instanz dar­auf betrei­ben kann. 50 — 100 GB muss­ten es min­des­tens sein. Außer­dem brauch­te er genü­gend RAM, damit ich auch mei­ne pri­va­ten und gewerb­li­chen Web­sites dort able­gen konn­te.

Probieren geht über studieren

Bei mei­nen Recher­chen stieß ich auf rie­si­ge Preis­dif­fe­ren­zen, sogar Hetz­ner war mir eigent­lich zu teu­er. Schluss­end­lich wur­de ich dann bei net­cup fün­dig. Dort bekam ich Anfang 2014 für unter 15 € zwei CPU-Ker­ne, 6 GB RAM und 150 GB Fest­plat­ten­platz, wenn mich mein Gedächt­nis nicht trügt. Ein tol­ler Preis und für mei­nen Anwen­dungs­fall anfangs auch voll­kom­men aus­rei­chend. Im Nach­hin­ein hat sich die Anzahl der CPU-Ker­ne als pro­ble­ma­tisch erwie­sen, da die own­Cloud beim Resi­zen von Fotos doch ganz schön Last pro­du­ziert. Das habe ich eine Zeit lang recht häu­fig gemacht. Auch mein Foto-CMS Koken benö­tigt ein wenig CPU-Zeit, wenn neue Fotos hin­zu­kom­men.

Vor rund einem Jahr habe ich die­sen vSer­ver dann durch ein aktu­el­le­res Ange­bot des glei­chen Anbie­ters abge­löst. Die­ses Ange­bot beinhal­tet vier CPU-Ker­ne, 12 GB RAM und 240 GB SSD-Spei­cher. Und die­se Maschi­ne genügt mir nach wie vor. Seit etwa über einem Jahr lie­fert sie zuver­läs­sig alle Web­sites aus und hos­tet auch die eine oder ande­re own­Cloud-Instanz ohne zu kla­gen. Auch die­ser vSer­ver kos­tet gera­de mal etwa 15 €.

Auf einmal war er weg …

Zeit­gleich mit dem ers­ten vSer­ver bei net­cup mie­te­te ich einen wei­te­ren, klei­ne­ren vSer­ver für Spie­le­rei­en. Der hat­te nur einen CPU-Kern, 60 GB HDD und 1 GB RAM. Kos­te­te aber auch nur 6 € monat­lich.

Mein Anfang mit net­cup war etwas hake­lig. Lei­der bra­chen bei­de vSer­ver mir immer wie­der mal weg und das teil­wei­se für meh­re­re Minu­ten. Ich wur­de zwar brav über Pro­ble­me per E‑Mail infor­miert, toll war das aber trotz­dem nicht.

Seit nun über einem Jahr mit dem neu­en vSer­ver habe ich die­se Pro­ble­me aber nicht wie­der erlebt. Ich moni­to­re mei­ne Sys­te­me mit dem Upti­me­Ro­bot und bekom­me es recht schnell mit, wenn Ser­vices weg bre­chen. Aber wie gesagt, seit über einem Jahr kei­ne Kla­gen.

Zuverlässige und günstige vServer

Die gibt es tat­säch­lich bei net­cup. Ich kann den Anbie­ter vor­be­halt­los emp­feh­len. Die übli­chen Mecha­nis­men zum neu­auf­set­zen und repa­rie­ren gibt es hier natür­lich. Zugriff über eine VNC-Kon­so­le ist mög­lich. Als Basis­tech­no­lo­gie wird KVM ein­ge­setzt. Die Per­for­mance ist durch die Bank weg gut und für klei­ne­re Web­ser­ver mehr als aus­rei­chend.

Kategorien
Google Linux Open Source Technologie WordPress

Kostenlose SSL-Zertifikate für alle

Kos­ten­lo­se SSL-Zer­ti­fi­ka­te für jeden, das klingt ein­fach viel zu schön, um wahr zu sein. Obwohl, Moment, das gab es schon mal. Und gibt es immer noch. StartS­SL stellt näm­lich für jeder­mann gül­ti­ge Zer­ti­fi­ka­te aus. Kos­ten­los. Domain-vali­diert und für jeder­mann erhält­lich. So neu ist die Idee also nicht. Nur scheint es StartS­SL nie auf den Mas­sen­markt abge­se­hen gehabt zu haben, kaum jemand wuss­te davon, war so mein Gefühl.

SSL? Was hat Snowden da losgetreten?

Nach den Snow­den-Ent­hül­lun­gen gin­gen die Gesprä­che um das The­ma Ver­schlüs­se­lung auch in der brei­ten, weni­ger tech­ni­kaf­fi­nen Bevöl­ke­rungs­schicht los. Wie sicher sind mei­ne Daten eigent­lich, wer kann sie wäh­rend des Trans­fers lesen, wer hat Zugriff auf mei­ne Daten, wenn sie erst mal ange­kom­men sind?

Lei­der waren SSL-Zer­ti­fi­ka­te in der Regel ein Pri­vi­leg für weni­ge. Ein­zel­do­main­zer­ti­fi­ka­te, die in der Regel die Domain selbst (also bspw. ulfklose.de) und eine Sub­do­main (also bspw. blog.ulfklose.de oder www.ulfklose.de) absi­chern, gibt es schon eine gan­ze Wei­le kos­ten­los von StartS­SL oder für wenig Geld von bspw. RapidSSL (ca. 30 € im Jahr). Aber die Bestel­lung und Bereit­stel­lung sol­cher Zer­ti­fi­ka­te erfor­dert eini­ges an Spe­zi­al­wis­sen, das das des Otto-Nor­mal-Nut­zers deut­lich über­steigt. Und wirk­lich klar war es den meis­ten die­ser Nut­zer wohl auch kaum, wofür er solch ein SSL-Zer­ti­fi­kat über­haupt brau­chen könn­te. Und sobald es Geld kos­tet, neigt gera­de der Deut­sche dazu, es nicht haben zu wol­len.

Goog­le fing vor gerau­mer Zeit damit an, SSL-gesi­cher­te Web­sites bes­ser zu bewer­ten, ihr Ran­king also höher ein­zu­stu­fen als das von unge­si­cher­ten Web­sites. Aber auch das hat nur wenig an der Ver­brei­tung der SSL-Instal­la­tio­nen ver­än­dert.

Let’s Encrypt — eine gute Idee

Genau, lasst uns ver­schlüs­seln. Gera­de nach den Snow­den-Ent­hül­lun­gen eine mehr als gute Idee, wis­sen wir doch jetzt mit Gewiss­heit, dass uns die Geheim­diens­te die­ser Welt gna­den­los aus­spio­nie­ren. Ver­hin­dern lässt sich das nur mit einer adäqua­ten Ver­schlüs­se­lung. Hier trat das Pro­jekt Let’s Encrypt auf den Plan.

Zum ers­ten Mal las ich Anfang 2015 dar­über, wenn ich mich nicht irre. Ende 2015 ging das Pro­jekt dann zuerst in eine geschlos­se­ne, spä­ter dann in eine offe­ne Beta-Pha­se. Die lief erstaun­lich gut, wes­we­gen man sich nun Mit­te April dazu ent­schloss, in die Pro­duk­tiv­pha­se über­zu­ge­hen.

Let’s Encrypt geht einen ande­ren, ein­fa­che­ren Ansatz, SSL-Zer­ti­fi­ka­te aus­zu­stel­len. Für den End­be­nut­zer beschränkt sich das im Ide­al­fall dar­auf, das Zer­ti­fi­kat ein­ma­lig für sei­ne Domain(s) zu bean­tra­gen und die­se danach regel­mä­ßig, alle drei Mona­te, auto­ma­ti­siert erneu­ern zu las­sen. Im Gegen­satz zu den gro­ßen Aus­stel­lern lau­fen Let’s‑Encrypt-Zertifikate näm­lich nach drei Mona­ten ab, bei den ande­ren sind es in der Regel wahl­wei­se 1, 2 oder 3 Jah­re. Der Vor­teil liegt hier auf der Hand: stellt sich her­aus, dass jemand sol­che Zer­ti­fi­ka­te miss­bräuch­lich ver­wen­det, kann man das Zer­ti­fi­kat nach drei Mona­ten ein­fach nicht ver­län­gern las­sen. Ist ein Zer­ti­fi­kat näm­lich erst mal aus­ge­stellt, kann der Aus­stel­ler es zwar zurück­zie­hen, es ein­fach ungül­tig wer­den zu las­sen, ist aber sicher. Nicht jeder Cli­ent prüft beim Auf­ruf, ob das Zer­ti­fi­kat nicht viel­leicht schon zurück­ge­zo­gen ist, was allein schon aus Grün­den der Per­for­mance logisch scheint.

Jetzt ist der Massenmarkt gefragt

Die gro­ßen Web­hos­ter sind nun gefragt. Wenn die­se Let’s Encrypt imple­men­tie­ren kann in Zukunft jeder kos­ten­los für all sei­ne Domains SSL-Zer­ti­fi­ka­te bean­tra­gen, bis irgend­wann, in einer hof­fent­lich nicht all­zu fer­nen Zukunft sämt­li­cher Web­traf­fic ver­schlüs­selt erfolgt.

Wer das Glück hat, einen eige­nen Ser­ver zu besit­zen und die­sen auch selbst admi­nis­trie­ren kann, kann aber schon jetzt davon pro­fi­tie­ren. Das Web-Con­trol-Panel Frox­lor unter­stützt Let’s Encrypt bereits, ISP­Con­fig-Benut­zer kön­nen sich mit einer Erwei­te­rung behel­fen. Synolo­gy hat mit der Vor­stel­lung von DSM 6.0 eben­falls eine Unter­stüt­zung für Let’s Encrypt nach­ge­rüs­tet. Vie­le wei­te­re Pro­jek­te kün­dig­ten bereits ihre Unter­stüt­zung an. Sicher­lich wird es noch eine gerau­me Zeit dau­ern, bis über­all SSL als Stan­dard gilt, aber der ers­te Schritt ist getan.

Zer­ti­fi­kats­aus­stel­ler wer­den es sicher­lich bald schwe­rer haben, ihre Basis­zer­ti­fi­ka­te an den Mann zu brin­gen. Solan­ge Let’s Encrypt aber kei­ne Wild­card-Zer­ti­fi­ka­te anbie­tet, bleibt wenigs­tens die­ser Markt noch für DV-Zer­ti­fi­ka­te erhal­ten. OV und EV bie­tet Let’s Encrypt (noch?) nicht an, wir müs­sen uns also um Como­do und Co. nicht sor­gen.

Kategorien
Linux ownCloud

Upgrade von ownCloud 8.2 auf 8.2.1 schlägt fehl

 
Beim Ver­such, das Update ein­zu­spie­len, gab der own­Cloud-Updater fol­gen­de Mel­dung von sich:

Unable to move /temp/pfad/zum/owncloud/update/resources /pfad/zur/owncloud/resources

Ver­ur­sacht wird das durch einen Bug in der core.php. Wer nicht auf 8.2.2 war­ten möch­te, kann sich mit einer der bei­den fol­gen­den Metho­den behel­fen:

  1. /pfad/zur/owncloud/apps/updater/lib/location/core.php anpas­sen, hier steht wie: https://github.com/owncloud/updater/pull/192/files
  2. /pfad/zur/owncloud/apps/updater/lib/files.json anpas­sen: dazu unter dem Abschnitt 8.1 den Ein­trag “resour­ces”, hin­zu­fü­gen.

Es sind nicht bei­de Ände­run­gen erfor­der­lich, eine genügt. Danach soll­te das Upgrade durch­lau­fen.

Kategorien
Linux

Apache 2.4 und die .htaccess

Nach eini­gem Gesu­che bin ich eben auf einem recht frisch auf­ge­setz­ten Ser­ver mit Debi­an 8 dar­auf auf­merk­sam gewor­den, dass Apa­che 2.4 stan­dard­mä­ßig das Hand­ling von .htac­cess-Datei­en unter­bin­det. Sicher­heits­tech­nisch sicher­lich eine gute Ent­schei­dung, kom­fort­sei­tig aber natür­lich doof. Die ent­spre­chen­de Varia­ble sitzt in der /etc/apache2/apache2.conf in die­sem Abschnitt (sofern man sei­ne Web­sites unter /var/www ablegt):

Directory /var/www/
Options Indexes FollowSymLinks
AllowOverride None
Require all granted
/Directory

Die Ele­ment-Klam­mern muss­te ich Word­Press zulie­be lei­der ent­fer­nen.

Kategorien
Linux OS X Terminal

Dateien älter als n Tage löschen unter Linux

Das geht so:

find /pfad/zu/den/dateien/* -mtime +anzahl-tage -exec rm {} \;

Das Kom­man­do find sorgt erst mal dafür, dass die Datei­en nach dem gewünsch­ten Mus­ter (-mti­me) aus­fin­dig gemacht wer­den. Danach wird das Ergeb­nis an das Kom­man­do rm über­ge­ben. Die geschweif­ten Klam­mern beinhal­ten qua­si das Ergeb­nis, die Ergeb­nis­lis­te wird dann also von rm ver­ar­bei­tet. Getes­tet und für funk­tio­nie­rend befun­den.
Gefun­den auf: http://www.howtogeek.com/howto/ubuntu/delete-files-older-than-x-days-on-linux/

Kategorien
Linux

Sendmail mit SELinux und http

In der Stan­dard­kon­fi­gu­ra­ti­on funk­tio­niert das nicht, da der http-Pro­zess auf das spool-Ver­zeich­nis kei­nen Zugriff hat. Abschal­ten lässt sich das mit fol­gen­dem Befehl:

setsebool -P httpd_can_sendmail 1
Kategorien
Datenbanken Linux Technologie Terminal

Fehler beim Update von ownCloud 5 auf 6

Ich habe mei­ne own­Cloud-Instanz nach dem Update nicht mehr aus dem War­tungs­mo­dus bekom­men, Pro­ble­me mit der Suchen­gi­ne Luce­ne waren die Ursa­che.  Nach einer kur­zen Suche bin ich auf die­sen Bei­trag auf der Git­Hub-Sei­te des Pro­jekts gesto­ßen:
https://github.com/owncloud/core/issues/6313
Das Hin­zu­fü­gen einer Datei apps/search_lucene/appinfo/preupdate.php mit fol­gen­dem Inhalt schafft Abhil­fe (die­se befin­det sich etwas hüb­scher for­ma­tiert auch noch mal in der Quel­le):

<?php
$currentVersion=OC_Appconfig::getValue('search_lucene', 'installed_version');
if (version_compare($currentVersion, '0.5.2', '<')) {
 //delete duplicate id entries
 $stmt = OCP\DB::prepare('
 DELETE FROM `*PREFIX*lucene_status`
 WHERE `fileid` IN (
 SELECT `fileid`
 FROM (
 SELECT `fileid`
 FROM `*PREFIX*lucene_status`
 GROUP BY `fileid`
 HAVING count(`status`) > 1
 ) AS `mysqlerr1093hack`
 )
 ');
 $stmt->execute();
}
Kategorien
Linux Terminal

Sehr nützlich

http://www.htaccessredirect.de

Kategorien
Linux OS X Terminal

Bash-Funktion erzeugt automatisch Sicherheitskopien

Wer ger­ne Kon­fi­gu­ra­ti­ons­da­tei­en bear­bei­tet kennt das Pro­blem: häu­fig ist man zu faul, um vor­her eine Sicher­heits­ko­pie zu erzeu­gen. Fol­gen­de Bash-Funk­ti­on tut das ab sofort auto­ma­tisch:

conf() { [ "$1" != "" ] && cp "$1" "$1".bak-`date +%d%m%y`; nano "$1"; }

Nach­dem man die Funk­ti­on über eine Bash-Start­da­tei ver­füg­bar gemacht hat, kann man nun über den Auf­ruf

conf Dateiname

Datei­en sicher edi­tie­ren, das Erzeu­gen der Sicher­heits­ko­pie erfolgt auto­ma­tisch. Wer lie­ber einen ande­ren Edi­tor als den von mir gewähl­ten nano ver­wen­den möch­te, muss das ent­spre­chend in der Funk­ti­on anpas­sen.
Die­sen Tipp habe ich hier gefun­den: https://www.facebook.com/nixcraft/posts/756834344329946

Kategorien
Linux OS X Terminal

Komplettes Subnetz nach aktiven Systemen scannen

Das geht mit fol­gen­dem Kom­man­do:

nmap -PR -oN ergebnisdatei.txt subnetz-in-cidr-notation

Das Sub­netz muss also bei­spiels­wei­se so ange­ge­ben wer­den: 192.168.0.0/24 (was der Sub­netz­mas­ke 255.255.255.0 ent­sprä­che)