Das Kapital und die Spezialdienste

TL;DR

  1. Die Telekom baut auf veralteter Infrastruktur, statt Glasfaser
  2. Ihre Peers bittet sie übermäßig zur Kasse
  3. Pakete gehen verloren, die Kunden erhalten zu wenig Leistung
  4. Content-Anbieter konkurrieren um die wenige Bandbreite
  5. Nun sollen wir extra bezahlen, um nicht benachteiligt zu werden
Die verdammte Politik

Das “Netz der Zukunft” ist bei 100 MBit/s nicht gerade zukunftsfähig. Die Glasfaserleitungen könnte man auch endlich in die Häuser verlegen und ohne große Zusatzkosten Gigabit liefern. 100 MBit/s auch im Upload? Nicht mit der Telekom.


Geplante Obsoleszenz oder Fehlkonstruktion?

Vor einigen Wochen ist uns in unserem Rechenzentrum eine über das Netz schaltbare Steckdosenleiste abgeraucht und hat dabei 24 Server abgeschaltet. Die Folgen waren: Downtime der Server für mehrere Stunden (wobei ein Großteil Server mit Failover-Partner waren), 4 kaputte Festplatten und der damit verbundene Ärger und zu guter Letzt der Nachteinsatz mehrerer Kollegen, und das alles nur weil eine Steckdosenleiste von jetzt auf gleich den Betrieb einstellen wollte.

Alleine den Ausfall der Steckdose halte ich persönlich für eine Unding - es handelt sich schließlich um ein 1000-Euro-Gerät einer namenhaften Firma. Hier würde ich erwarten, dass ein Defekt im Gerät nicht die Funktion der gesamten Leiste zum Erliegen bringt. Einzelne Ports vielleicht oder der Verlust der Schaltbarkeit würde ich ja noch akzeptieren, aber dass das Ding einfach ausgeht: Nun ja. Nicht weiter darüber aufregen.


Zum Stand von Let's Encrypt

Derzeit schlagen im Support vermehrt Fragen zum Support von Let’s Encrypt auf, nicht zuletzt seit das Projekt vermelden konnte, nun seine Cross-Root-Signatur von IdenTrust erhalten zu haben, was nicht Wenige damit verwechselt haben, dass es da jetzt produktiv losgeht. Deshalb erstmal die wichtigsten Punkte vorab:

  • Let’s Encrypt ist weiterhin noch nicht allgemein verfügbar; es gibt lediglich eine Closed Beta. Der Verfügbarkeitstermin ist nach deren aktueller Roadmap der 16. November wohl doch erst der 3. Dezember.
  • Let’s Encrypt ist eine Zertifizierungsstelle, aus der letztlich ganz genauso Zertifikate rausfallen wie aus jeder anderen Zertifizierungsstelle - Zertifikate, die wir also ganz genauso wie jedes andere Zertifikat kostenlos bei uns einbinden können - heute schon.
  • User, die das Glück haben, am Beta-Programm von Let’s Encrypt teilnehmen zu können, tun das auch bereits.
  • Ja, wir haben vor, Let’s Encrypt bei uns zu unterstützen, und um diesen Aspekt dreht sich dieser Blogpost.

Wenn davon die Rede ist, dass wir Let’s Encrypt bei uns unterstützen wollen, dann meint das weniger, dass wir deren Zertifikate unterstützen, denn in dieser Hinsicht unterscheidet sich Let’s Encrypt ja nicht von jeder anderen CA. Es bedeutet vielmehr, dass wir deren Validierungsprozess bei uns einbinden möchten, mit dem Ziel, dass User im Prinzip nur noch sowas wie uberspace-letsencrypt (oder sowas in der Richtung) eingeben müssen, und wir kümmern uns darum, ihnen automatisiert einen Account bei Let’s Encrypt zu verschaffen, die Challenges für die Validierung zu erledigen, Key und CSR zu erstellen und das Zertifikat bei uns einzubinden. Soweit der Plan, und wir arbeiten bereits seit einiger Zeit daran, das umzusetzen; ist aber noch nicht fertig. Das macht aber ja nichts, denn Let’s Encrypt selbst ist ja auch noch nicht fertig, d.h. die Zertifikate, die man derzeit von deren Staging-API beziehen kann, tragen ohnehin noch keine Signatur, der Browser vertrauen würden (das ist nur bei den Zertifikaten des Beta-Programms der Fall).


Überarbeitung des Prozesskillers

Uberspace ist eine Shared Hosting-Umgebung, bei der alle nach gewissen Spielregeln spielen müssen. Es liegt in der Natur der Sache: Ressourcen auf unseren Servern sind - wie überall - begrenzt (wenn auch sehr großzügig dimensioniert) und ab und zu müssen wir der Fairness wegen eingreifen. Das gilt zum Beispiel, wenn ein einzelner Prozess überproportional viel RAM belegt - hier kommt unser Prozesskiller ins Spiel.

Der Prozesskiller. Döm döm döm…

Den Prozesskiller gibt es schon lange. Anfangs werkelte er stillschweigend bei uns im Hinterzimmer, seit einiger Zeit verschicken wir auch Mails, wenn wir einen Prozess beenden. Bisher gab es bei 500MB RAM-Belegung eine Warnmail, dass wir den Prozess bald beenden werden, und bei 600MB RAM-Belegung den Abschuss und eine entsprechende Nachricht im Posteingang. Jeder, der schon einmal eine Mail mit einem ähnlichen Betreff wie


Node.js 4.2.0

Zwei mal drei macht vier,

widewidewitt und drei macht neune,

ich mach mir die Welt,

widewide wie sie mir gefällt.

Vielleicht haben die Macher von Node.js zu viel Pippi Langstrumpf gelesen, vielleicht aber auch nicht, wer weiß das schon. Fest steht: rechnen können sie nicht. Nach Node.js 0.10 und 0.12 kommt nun also Version 4. Und weil 4.0 auch schon wieder veraltet ist, gibt’s bei uns nun Node.js 4.2.0.


Go go Gopher!

Keine Sorge, wir führen nicht das olle Gopher-Protokoll wieder ein*.

In jüngster Zeit häufen sich dafür Fragen zu Go bei uns im Support. Viele Entwickler scheinen Gefallen an der modernen, performanten Programmiersprache von Google gefunden zu haben und wir freuen uns natürlich über jeden, der bei Uberspace seine Apps entwickelt oder sich neue Programmiersprachen aneignet. 👍

Wir haben unsere Dokumentation für Go daher grundlegend überarbeitet: Go ist nun kein Nebensatz mehr in unserer FAQ, sondern hat seinen eigenen Artikel im Wiki und spielt bei uns damit nun in einer Liga mit Python, Ruby, nodejs, PHP, Erlang und Perl mit.


Roundcube 1.1.3

Wir haben auf allen Hosts Roundcube (also das Webmail-Interface auf https://webmail.$servername.uberspace.de) auf die neueste Version gehoben. Dabei haben wir einen Versionssprung von 1.0.5 auf 1.1.3 hingelegt und unser Deployment-Setup so angepasst, dass wir in Zukunft mit einem Fingerschnippen Updates einspielen können.

Außerdem haben wir etwas an der Konfiguration geschraubt. Neu hinzu gekommen sind:

// prefer displaying HTML messages
$config['prefer_html'] = false;

// display remote inline images
// 0 - Never, always ask
// 1 - Ask if sender is not in address book
// 2 - Always show inline images
$config['show_images'] = 1;

// save compose message every 60 seconds (1min)
$config['draft_autosave'] = 60;

// Add this user-agent to message headers when sending
$config['useragent'] = '';

Diese Einstellungen sind per User im Webinterface änderbar und führen zu mehr Privatsphäre und Sicherheit.


BACKRONYM strikes back

In der Regel verlaufen unsere PHP-Minor-Updates praktisch unbemerkt; so auch unser gestriges Update von PHP 5.6.10 auf 5.6.12 - unbemerkt, bis auf einen Fall: Die PHP-Applikation eines Users weigerte sich spontan, noch eine Datenbankverbindung mit mysql_connect() aufzubauen, obwohl die Zugangsdaten mehrfach kontrolliert wirklich gestimmt haben. Die erstaunliche Meldung:

MySQL server has gone away

… und zwar bereits direkt zum Verbindungsaufbau, noch bevor der Client irgendwas an den MySQL-Server gesendet hat. Und jetzt der spannende Teil: Ein Downgrade auf PHP 5.6.10 behebt das Problem; die Verbindung kommt einwandfrei zustande.


Neue PHP-Versionen ... und ja, auch die 7.0.0RC1

Wir haben mal wieder einen Schwung PHP-Updates verteilt, und zwar folgende Versionen:

  • 5.6.12
  • 5.5.28
  • 5.4.44

Und außerdem erstmalig mit dabei, Trommelwirbel:

  • 7.0.0RC1

Letzteres ist “bleeding edge” und seitens der PHP-Entwickler ausdrücklich noch nicht für den produktiven Einsatz vorgesehen. Unser Default bleibt insofern auch weiterhin noch die neueste stabile Version 5.6.

Wir haben bei den Versionen gegenüber unserer bisherigen Setups ein bisschen getweakt und haben bz2-Support nun direkt einkompiliert, so dass man den nicht mehr via PECL nachinstallieren muss, und aufgrund einiger (weniger) Anfragen auch den gmp-Support aktiviert.


Reboots

Ein Bug im libvirt-Paket von CentOS 6 hat zur Folge, dass wir in den nächsten Nächten leider 24 unserer Server rebooten müssen. Betroffen sind diese Server: alphard, avior, diphda, markab, mirfac, regulus, eltanin, enif, arcturus, alioth, alkaid, dubhe, peacock, sabic, suhail, bellatrix, acrux, betelgeuse, alnilam, alpheca, shaula, elnath, gienah und schedar. (Mist, schon wieder Appetit auf Käse.)

Hier sollen kurz die Gründe erläutert werden und bei der Gelegenheit mal ein genereller Überblick über das gegeben werden, was wir im Punkto Reboots in nächster Zeit vorhaben, denn wir planen Reboots in Zukunft deutlich häufiger durchzuführen als bisher und das ganze besser zu Kommunizieren.