Alte Telefonanlagen um moderne Funktionen erweitern

In vorigen Einträgen habe ich ja schon etwas dazu geschrieben, dass ich heute durchaus einen Sinn in der Zweidrahtschnittstelle sehe.
Es mag also sein, dass man noch eine ältere TK-Anlage aus gutem Grund betreibt, sei es, weil eine flächendeckende Versorgung mit Endgeräten (und sogar auch DECT-Kanalelementen) sehr kostengünstig möglich ist.
Dass das Telefonnetz auf VoIP umgestellt wird, ist Realität. In einem vorigen Eintrag habe ich ja bereits auf die Möglichkeit hingewiesen, dass man eine Amtsanbindung erreichen kann, indem man sich ein ISDN-SIP-Gateway mittels Asterisk baut.
Wenn man diesen Weg eingeschlagen hat, hat man die volle Kontrolle nicht nur über ein Asterisk, sondern über die in einem Computer verbauten ISDN-Karten auch einen relativ flexiblen Zugang zur TK-Anlage.
Ich dokumentiere hier einmal, welche Funktionen ich selbst in einer solchen Installation umgesetzt habe. Weiterlesen

Umstellung von ISDN auf VoIP bei konventionellen TK-Anlagen

Die Umstellung des Telefonnetzes von ISDN auf VoIP ist keine Zukunftsmusik mehr, sondern gehört mittlerweile zum Alltag Viele kleinere Provider bieten bereits kein ISDN mehr an, und die Telekom ist seit Längerem dabei, laufende ISDN-Anschlüsse aktiv zu kündigen.
Bei vielen TK-Anlagen-Besitzern kommt daher aktuell die Frage auf, wie man dieser Umstellung begegnet. Ich habe die gängigsten Alternativen aus meiner Sicht mal aufgeschrieben.

Weiterlesen

Upcycling klassicher Telefonanlagen / Renaissance der TDM-Schnittstelle

Bestandsaufnahme

Hier habe ich einen Abriss gegeben über die jüngere Vergangenheit der Telefonanlagen und Telefonie, und warum ich der Ansicht bin, dass das Tischtelefon zu Unrecht in Vergessenheit gerät und mehr leisten könnte als es das in den meisten Fällen heutzutage tut.

Wie sieht die Gegenwart aus? Heute gibt es prinzipiell 3 Arten von TK-Anlagen:
Reine VoIP-TK-Anlagen, meist basierend auf Asterisk, FREESWITCH, ähnlichen OpenSource-Projekten oder auch Eigenentwicklungen. Sie werfen meist Jahrzehnte Entwicklungen im TK-Anlagen-Markt über Bord und hinsichtlich Leistungsmerkmalen endet der Horizont schnell nach absolut grundlegenden Leistungsmerkmalen wie dem Vermitteln von Gesprächen und Konferenzen. Auch die Menüführung bei Endgeräten aktueller VoIP-Anlagen bei Tischgeräten und erst recht in Sachen DECT-Integration kommt bei weitem nicht an das Niveau von Komfort heran, das man vor 20 Jahren bereits mit deutlich weniger Ressourcen erreicht hat.
Weiterlesen

O du schöne Zweidraht-Welt — Resterampe oder Renaissance?

Klappentext

Die Kommunikationswelt befindet sich im Wandel. In wenigen Jahren wird ISDN als Kommunikationsanschluss für Jedermann Geschichte sein, die Umrüstung auf ein IP-basiertes Telefonnetz schreitet voran. Die Omnipräsenz von Smartphones, die steigende Verbreitung von WLAN-Routern mit integrierten Telefoniefunktionen und die Möglichkeit von „Allnet-Flats“ sowie die immer besser werdende Mobilfunkabdeckung stellen die Konzept „Telefonanlage“ „Tischtelefon“ infrage. Doch wird bei diesen Trends nicht etwas übersehen?
Ich bin – kurz gesagt – unzufrieden mit der aktuellen Situation und versuche, mit diesem Artikel darzustellen, woher wir kommen, wo wir stehen und wohin die Entwicklung gehen könnte. In einem zweiten Artikel beschreibe ich, wie man die Situation meiner Ansicht nach verbessern könnte.

Von Vieldraht zu Zweidraht, von Telefon zu Systemtelefon

Mit der Einführung von ISDN und rechnergesteuerten TK-Anlagen wurden diese massentauglich. Wo zu analogen Zeiten Abfrageplätze noch Schuhkarton-große Anschaltgeräte und daumendicke Kabel zur Anbindung an die Anlage brauchten und Telefonanlagen selbst für kleine zweistellige Nebenstellenanzahlen ohne nennenswerte Systemfunktionen mehrere Schränke füllten, gibt es seit Mitte der 1990er Jahre TK-Anlagen, die in der Lage sind, jeden Teilnehmer mit einem Systemtelefon zu versorgen. Modernere Anlagen wie die Bosch Integral 3 bieten wiederum auf Schuhkartongröße eine komplette TK-Anlage.
Durch ISDN und die Einführung der Übertragungsschnittstellen S0 und der zweiadrigen Variante Up0 wurde vor Allem eines Standard: der einpaarige Teilnehmeranschluss. Telefone brauchten keine separate Spannungsversorgung: alles kommt aus der Anlage. Nach Belieben kann der Teilnehmer mit einem Port für ein Systemtelefon, a/b, DECT-Kanalelement oder – dann natürlich mit 2 Paaren – S0 versorgt werden.

Ethernet: Fortschritt durch Komplexität?

Nun, Ethernet und IP-basierende Netze außerhalb der Rechnerkommunikation zu verwenden ist die Zukunft, oder eher schon die Gegenwart. In der Regel werden Neubauten mit strukturierter Verkabelung ausgerüstet, Gebäude untereinander und tlw. sogar Etagen innerhalb desselben Gebäudes mit Glasfaser statt Kupfer verbunden. Die strukturierte Verkabelung klingt sinnvoll und Flexibilität ist das Verkaufsargument Nr. 1, aber wohin führt sie?
Sieht man der Realität ins Auge, sind vor allem bei großen Installationen die wenigsten Telefone diejenigen, die z. B. aufgrund des benötigten Datendurchsatzes einen Ethernetanschluss wirklich benötigen.
Die meisten Telefone haben S/W-Displays, teilweise nicht einmal Vollmatrix-Displays, oder – noch absurder – weder Display noch Funktionstasten.

In Summe wird mehr Kupfer benötigt. Pro Netzwerkport werden 8 Kupferadern verlegt. Bei der sog. TDM-Technik, also dem zweiadrigen Anschluss wie bei Up0, ließen sich mit 8 Adern 4 Up0-Ports realisieren. Siemens mit der Master/Slave-Schaltung bietet sogar die Möglichkeit, an einem Systemtelefon noch ein weiteres zu betreiben. Also 8 Systemtelefone ohne separate Spannungsversorgung an einem Netzwerkkabel.
Bei IP bieten manche IP-Telefone einen integrierten 1-Port-Switch, aber für ein zweites Endgerät wird dann direkt ein PoE-Injektor zur Spannungsversorgung fällig.

PoE-Injektoren und -Switches bringen zusätzliche Komplexität in die Installation, vor allem die Frage nach Notstromfähigkeit wird so komplexer.

IP-Telefone bringen aber auch mehr Komplexität an einer anderen Stelle: Der überwiegende Teil der IP-Telefone basiert auf einem eingebetteten Linux. Meist bieten sie ein Webinterface.

Aber was bedeutet das? In jedem Tischtelefon läuft ein general-purpose-Betriebssystem, bestehend aus etlichen Komponenten und Bibliotheken, basierend auf einem lediglich an die Prozessorarchitektur angepassten Linux-Kernel bishin zum Webserver, mit allen Problemen und (Sicherheits-)Schwachstellen.
Das ist einigermaßen verschmerzbar, wenn die zusätzliche Leistungsfähigkeit auch genutzt wird, zum Beispiel indem das Telefon in der Lage ist, dem Nutzer Daten aus dem Unternehmensnetz oder Internet anzuzeigen, Videostreams von Kameras abzuspielen, etc. Geräte wie das Grandstream GXV3275 nutzen das Potential direkt aus und eignen sich zusätzlich als WLAN-Router und Thinclient.

Doch die Realität zeigt: Anbindung externer Dienste an die VoIP-Telefone von TK-Anlagen sind meist komplex realisiert, es werden oftmals zusätzliche Server benötigt (die also genauso gut in der Lage wären, bspw. Webseiten in ein spezielles Format für Nicht-VoIP-Telefone zu wandeln) und im handelsüblichen Büro gibt es meist 2 Endgeräte dieser Klasse: das der Sekretärin und das vom Chef.

Zweidraht-Telefonie: Sackgasse oder Chance?

Systemtelefone auf Zweidraht-Basis (im Folgenden Up0) wirken mittlerweile wie ein verstoßenes Kind: praktisch kein TK-Anlagen-Hersteller betreibt hier noch Entwicklung. Aus Herstellersicht ist der Schritt leicht erklärt: Up0 ist eine Nische. Die Schnittstellenbausteine, die Entwicklung auf dieser Technologie, die Entwicklung dedizierter Telefon-Endgeräte, diese Felder erfordern spezielles Wissen, sind also teuer. Ethernet-Technologie und Linux-SoCs gibt es wie Sand am Meer und Entwicklung lässt sich billig einkaufen. Ob das System eine Webcam betreibt oder ein Telefon: die grundsätzliche Architektur und die Betriebssystembasis sind idR gleich.
Dabei müsste das garnicht so sein und es geht auch durchaus anders: vxWorks und QNX sind nur zwei Beispiele für sogar echtzeitfähige Betriebssysteme, die speziell auf eingebettete Systeme ausgerichtet sind und bspw. Alcatel hat für eine Serie ihrer IP-Telefone auf vxWorks gesetzt. Der Vorteil ist zum Beispiel eine erheblich kürzere Bootzeit. Aber auch die Kompetenzen werden vielleicht etwas sinnvoller verteilt und jeder macht das, was er gut kann: Der TK-Anlagenhersteller entwickelt und wartet eine Applikation für die Telefonie und überlässt die Wartung eines Betriebssystems jemandem, der Profi in diesem Bereich ist — und sich vor allem auch um die Sicherheit dieses Systems und Bereitstellung von Sicherheitsupdates kümmert.
Wirklich schön ist nämlich nicht, denn wenn der Hersteller spart, muss es der Kunde ausbaden:
Nicht jeder Kunde für eine TK-Anlage ist das Standard-Büro aus der Katalogwelt. Nicht jedes Gebäude verfügt über strukturierte Verkabelung. Und wenn eine Bestandsverkabelung vorhanden ist und bei 99% der Teilnehmer die einzige Anforderung „Telefonieren“ ist, warum dann so viel Komplexität ins Haus holen?
Zumal es mittlerweile so scheint, als sei jedes Linux-basierende Endgerät eine potentielle Gefahr für das Intra- oder Internet: ein Buffer Overflow hier, eine unzureichende Zertifikatsüberprüfung da und schon hat man 100 kleine Agenten auf den Schreibtischen stehen, die nach Belieben Telefonate abhören, mitschneiden können oder auch andere Geräte im Netzwerk angreifen oder aushorchen. Selbst Geräte bei denen man es als unbedarfter Nutzer nicht für möglich hält, wie zum Beispiel Drucker, sind so eine Gefahr.
Das wird durch den Trend „Internet of Things“ wird das gerade nochmal potenziert, und das Grundproblem fasst dieser Tweet schön zusammen.
Bestes Beispiel dafür, welche Gefahr davon ausgeht, ist der DDoS-Angriff auf Dyn im Okt. 2016, der von „Geräten im IoT-Bereich“ ausging. Überhaupt ist mangelnde Sicherheit (meist stammend von schlechter Upgradepolitik) eines der größten (ungelösten) Probleme dieser Geräteklasse.
Und werden Schwachstellen bekannt, hat der Kunde nicht einmal die Möglichkeit, diese zu beheben sondern ist darauf angewiesen, dass der Hersteller reagiert. Der hat aber vielleicht kein Interesse daran, zum Beispiel weil der Kunde seit 2 Jahren kein neues Softwarerelase für seine Anlage gekauft und somit sein „Recht“ auf Firmwareupdates verwirkt hat, oder weil die Endgeräte einfach generell „End of life“ sind. So wird dann ein Gerät, das noch sämtlichen Anforderungen gerecht wird und das man garnicht austauschen möchte, zum Sicherheitsrisiko.
Es ist auch aus ökologischer Sicht unverantwortlich, auf diese Weise den Neukauf von Geräten zu erzwingen, ohne dass der Kunde echten Mehrwert benötigt, aber die aktuellen ein akutes Sicherheitsrisiko darstellen.

Dazu kommt: bei den meisten Herstellern besitzt das Systemtelefon, was die Teilnahme am Systembetrieb angeht, wenig eigene Intelligenz. Displayinhalte, Funktionen der Funktionstasten, alles wird in der Anlage generiert. Über mehrere Generationen ist die Hardware und ihr direkter Funktionsumfang sogar praktisch gleich geblieben. Beispiel Siemens: Optiset E, Optipoint 500-Serie, OpenStage TDM-Serie. Es gibt funktional kaum Innovationen (Display-Hintergrundbeleuchtung, Displaytechnologie, Anzahl und Art der Funktionstasten), über Generationen hinweg. Dafür aber stetige Einsparungen im Produktionsaufwand, auf Kosten der Langlebigkeit der Geräte, wie zum Beispiel die Bevorzugung von bedruckten Gummitastaturen gegenüber Kunststoffeinsätzen wie beim Optiset E.
Wenn es auch leichte Veränderungen gab; „moderne“ Anwendungen werden tendenziell dazu genutzt, IP-Endgeräte zu verkaufen, obwohl z. B. die OpenStage 40-TDM-Geräte mit ihren Vollgrafik-Displays für eine ausgefeilte Interaktion mit dem Nutzer geeignet wären.
Obwohl ISDN grundsätzlich bereits HD-Audio, z. B. mit dem Codec G.722, auch als „7 kHz-Telefonie“ bezeichnet, unterstützt, ist mir keine TK-Anlage bekannt, die das am Systemtelefon unterstützt.
Leider wurde bei der Verbreitung von ISDN versäumt, dies als Alleinstellungsmerkmal prominenter zu platzieren und Telefonie mit 3,1 kHz Bandbreite als „alt“ zu vermarkten.
Ggf. wäre es also möglich, auch hier durch vergleichbar wenig Änderungen an den Geräten eine deutliche Qualitätsverbesserung im Telefonieren herbeizuführen.
Aber letztendlich: das Systemtelefon ist in den meisten Fällen ein Terminal, und so sollte es generell möglich sein, auch funktionalen Mehrwehrt durch ausgefeiltere Software zu ermöglichen.

Telefon: quo vadis?

Die Kommunikationswelt verändert sich. Nicht nur Mobiltelefone sind omnipräsent, sondern Smartphones sind ebenfalls als allgegenwärtig anzusehen, „Jeder“ hat eins und in der Regel auch eine Anbindung an schnelle mobile Datennetze. Das Telefonat verliert jedoch an Bedeutung.
Ein Faktor mag sein, dass gerade bei günstigen Angeboten zwar in irgendeine Form Flatrates für mobiles Internet enthalten sind, Telefonate aber in der Regel Geld kosten – eine Allnet-Flat ist teuer. Zudem fördern soziale Netze die Affinität zum Schreiben kurzer Nachrichten gegenüber von Telefonaten.
Es fühlt sich leichtgewichtiger an, „mal eben“ eine Nachricht zu tippen statt sich Zeit für ein Telefonat zu nehmen.
Für verschiedene Anwendungsfälle mag das stimmen, zum Beispiel für das Übermitteln von Statusinformationen, gerade an eine Gruppe. Viele schätzen als Vorteil, dass es ein „Log“ gibt und man somit immer nachvollziehen kann, was besprochen wurde.

Fakt ist aber: diese Plattformen versagen sämtlichst daran, dies in archivierfähiger Weise zu tun.
Zunächst einmal sind alle „öffentlichen“ Plattformen von privaten Dienstleistern abhängig (Twitter, Slack, Facebook, Snapchat, WhatsApp, etc.). Privates und Geschäftliches ist nicht getrennt und vor Allem bedeutet „Konversation“ in der Regel, dass Nachrichten als quasi-endloser Strom von Nachrichten dargestellt werden und es kaum sinnvolle Suchmöglichkeiten gibt.

Das Schreiben von Textnachrichten fühlt sich leichtgewichtiger an, aber oft löst ein kurzes Gespräch Probleme deutlich effizienter. Meiner Ansicht nach ist es sinnvoller, beide Parteien nehmen sich vielleicht 2 Minuten Zeit, einen Sachverhalt bei voller Aufmerksamkeit zu klären, statt über 10 Minuten immer wieder Nachrichten auszutauschen, und somit bei keiner Sache voll dabei zu sein. Dann doch lieber eine Diskussionskultur pflegen bzw. wieder aufbauen, indem man am Ende eines Telefonats das Ergebnis zusammenfasst, falls es archivierungswürdig ist, oder das Gespräch oder Teile davon direkt von der TK-Anlage archivieren lässt.

Innerhalb von Ansätzen wie „Bring your own device“ gibt es ja auch Bestrebungen, komplett auf hausinterne Telefonie zu verzichten, den Mitarbeitern ggf. Handy-Verträge zu bezahlen und komplett mit Mobiltelefonie zu arbeiten. Ich sehe aber das Telefon eher als Teil der Infrastruktur des Ortes, an dem mich gerade befinde. Warum soll ich z.B. die Intelligenz, Licht und Heizung meines Arbeitsplatzes zu steuern, mit mir herum tragen?
Warum muss ich selbst Telefonnummern von etlichen Mitarbeitern verwalten, wenn diese Informationen zentral vorgehalten werden können, ich statt konkreten Personen „Dienststellungen“ („Das Lager“, „Der Empfang“,…) anrufen kann und diese mit zusätzlichen Metadaten versehen sein können (Empfang anrufen, Fr. Müller aktuell im Urlaub, vertreten durch Hrn. Maier)?
Warum muss ich mein Smartphone aus der Hosentasche holen, am Rechner zum millionsten Mal „Wetter Köln heute“ bei Google eingeben, wenn genau diese Informationen auf einem Gerät präsentiert werden können, das sowieso auf meinem Schreibtisch steht?
Was spricht also dagegen, das Tischtelefon als „Begleiter“ zu erfassen? Welche konkreten Funktionen dieses Gerät erfüllen soll, überlegt man sich ein Mal, und dabei kann es auch bleiben. Diese Funktionen erfüllt es dann immer, es gibt keine „Apps“, die man schließen oder extra öffnen muss. Somit bleiben Smartphone und PC frei von Onlineverläufen, Aktivitäten meiner Chatpartner und Telefonate auf anderen Leitungen.

Die derzeiten Lösungen auf dem „freien Markt“ reichen hier noch längst nicht aus, hier ist noch viel Arbeit für eine durchgängige Interoperabilität zu leisten. Es ist zum Beispiel naheliegend, dass ein Mitarbeiter ein laufendes Gespräch vom Handy aufs Tischtelefon weiterreichen möchte, wenn er von einem Außentermin zurückkommt.

Dear Linux…

Dear Linux,
living with you has become hard.

To start with, I use a current ThinkPad and the latest Ubuntu Linux LTS.
Up to now, the things I have to do occasionally so I can do my daily work:
1) Restart network-manager after wakeup because WiFi looks like it works but it doesn’t
2) Kill unity-panel-service at least every ~1,5 day because it continuously eats system resources (I once catched it claiming 8 gigs of RAM)
3) After issuing a print job, open print queue GUI manually because otherwise the print job isn’t really started

Moreover, I am forced to run a beta-kernel, because, using the official kernel, standby after undocking suddenly got broken. And, since day one of using this system, there is the issue of laggy audio output which needs some seconds until audio is played and permanently blocks the whole application having sound output for several seconds.
As a side note: whilst running Windows 7 on the same machine, none of this issues is present.

Apart from that, I constantly face minor and major issues concerning the applications themselves, also interfering my daily work. For example when working on publications, I am forced to use up to four different tools, because a graphic tool doing sophisticated vector drawings, diagrams and graphs at one go simply doesn’t exist. Additional overhead is caused because there is no proper interoperability between those. And, still, every GUI framework seems to come up with its own philosphy how certain keystrokes and GUI elements should work, apart from the fact that there is still no really gobal clipboard.
The issues I have using this tools are well-known, documented and exist at least since I began using Linux for my daily work again several years ago. All of these applications didn’t make visible progress since then. What is more astonishing: some of them feel like there hasn’t been much change since my first contact with Linux roughly 17 years ago.

I know what some of you might think now. Please, don’t come up with „It’s obvious that you have such problems with distro X, you should use distro Y instead! Everything is better there!“
During the last years, I tried a number of different distributions, all promoted as „The one and only distribution to bring back stability, reliability and everything else you love!“. I tried a number of these distributions hoping that it would do its job better. But all of them fell short on their promise. Plus, the more atypical the distribution, the bigger the problem to find someone who can actually help to solve problems with it.

Summed up over the last years, I invested an absurd amount of businessdays to

  • clean install my system
  • fix issues to get my hardware work in the first place
  • fix issues that came up after package updates or distribution upgrade
  • search for help to all of the above
  • .

Nowadays, the diverse community platforms are full of problems and suggestions, but unfortunately, an immense ammount is on a level of esotheric methods or „solutions“ like „I did a clean install and my issue is gone now.“. These are things for which Linux users used to laugh at Windows users for years.

Don’t get me wrong, I like computers, I like to use them and I also like hacking and fiddling with configuration files to reach a certain goal. As a hobby or to realize sophisticated server functionalities. But concerning my system for daily work, I need a reliable system with flawless support for the internal hardware as well as periphery, and the ability that I can update the system to get new features and bug / security fixes without having to fear that functionality breaks. Again, this is what Windows users have been laughed at by Linux users for years.

Concerning my concrete issues in the introduction, after failing to unearth workable information out of the depths of community platforms, I lastly went the official way by filing bugs.
Most of them are open since months now, most of them did not gain any serious attention yet apart from complaining that I did something wrong when writing the bug report or not providing the right / enough information. In every case I provided this information, but none of the bugs has been solved yet or treated in a way that it helped me to fix the issues.

And sadly, even if I would succeed in all of this, there is still a big problem given by the abscence of productivity applications apart from web, mail, office and graphics.

I once had to cut some video material. So I went through the repositories and some PPAs out there to get a video editing tool. I tried three different ones, all being advertised as compatible with my system and being a top-notch thingie.
None of them succeeded in cutting the video correctly, one even did not start.
I ended up tinker with ffmpeg and cut the video blindly, hoping that the time data discovered using a second tool lead to the needed result. Is this the way things should be in 2016?

Providing a product also means that it needs servicing, maybe over a long period of time. For example, „Getting Things Done“ is my favourite methode of – well – getting things done.
This method became popular in ~2006, which means that most applications supporting this method also came up at that time.

Today, the only at least somehow working GTD tool for the Linux desktop is Getting Things GNOME. Sadly, it has some essential backdraws since it is still in some early stage of development (the version number states 0.3.1), but, even worse, it crashes now and then, letting an unpredictable amount of modifications to my data vanish. In fact, the last maintenance release was in 2013. But at least it works most of the time. All other tools I found during many search sessions weren’t even updated since the initial GTD hype, leaving them in an incompatible state since they aren’t hardly maintenanced to be up-to-date to newer Linux distribution versions, but still found in repositories. This lets me think that software repositories have a big amount of members who only exist on paper.

The thing is: I for sure understand that much of what is made possible in the Linux world is made by people in their freetime. But at close of day, I need to get my work done, and to succeed in this I am perfectly fine with spending money for a commercial product with the promise of maintenance over a long period of time – if only there were such products.

Moreover, I have the impression that the platform itself is abandoned by the industry slowly but surely. It is actually getting harder and harder to take part in business conference calls. Two wide-spread tools, Adobe Connect and Skype, lack fundamental support under Linux. To share my screen and benefit from all functionality of Adobe Connect, the „Adobe Connect Add-In“ is needed. There is no Linux version of it. Period.
The last really native version of Skype is heavily outdated and can’t be used for virtually anything except I want to communicate with other Linux users using the same version. For a more current version, the is the new „Skype for Linux“ which isn’t a native application anymore but just a wrapper for the web application. Apart from chats and audio calls there doesn’t seem to work much by now, altough there have been a big number of updates since first release. Oh, and it loves to crash, too.
And, to add one more: Citrix GoToMeeting doesn’t support Linux at all.
So, I have actually no possibility to take part in conference calls and share my screen using a tool which is available for Windows, macOS and Linux and I’m already forced to use an other OS here.

At this point, I am beyond the question of using open source software because it is for example better in terms of privacy or ideology. What I see is: I just want to use my computer as a tool to get my daily work done. And I see that the best I can actually get is a system that hinders me every single day, productive tools lacking innovation and the mere absence of commercial products to compensate lack of open source developers where it is necessary to pay a company for developing an maintaining a product for a specific use case. I tried to take part in the open source process and help the people by describing my problem and offer my help to further investigate and test stuff. But my offer of help wasn’t answered many times, leaving me in a desperate situation.

As it is, I think I won’t change anything in my setup. I have a system that somehow works for me, there is a bunch of issues but I somehow can work around them. I think I won’t give the n+1-th distribution a try, eventually determining that all of the above issues may be gone then but some others are appear instead.

Dear Linux, living with you has become hard.

Für Blaulichtverbot auf Autobahnen

Heute war es wieder einmal soweit. Auf meinem morgendlichen Weg zur Uni staute es sich auf der Autobahn. Es ging nur im Schneckentempo voran. Irgendwie hatte ich im Gefühl, was der Grund dafür sein mag – und ich sollte leider nicht enttäuscht werden: nach ca. 1 km Autobahnschleichen konnte ich auf der anderen Fahrbahnseite einen Kleintransporter, einen PKW und dahinter ein Polizeifahrzeug auf dem Standstreifen stehen sehen. Erlaubterweise war am Polizeifahrzeug das Blaulicht angeschaltet – möglicherweise auch deswegen, weil die beiden Fahrzeuge aus dem fahrenden Verkehr angehalten worden sind.
Ich hatte viel Zeit, mir das „Spektakel“ anzuschauen und mir meine Gedanken dazu zu machen, denn immerhin ging es ja auch weiterhin im Schneckentempo voran – und zwar exakt bis zu dem Punkt, an dem ich diese Fahrzeuge passiert hatte – dann floss der Verkehr wieder ganz normal weiter. Abgesehen natürlich von der Gegen-Fahrtrichtung, hier konnte man dann noch den kilometerlangen Stau sehen.
Leute, mal ganz ehrlich: wie #!@Z/|##! muss man eigentlich sein, dass ein Fahrzeug mit Blaulicht auf der Gegenfahrbahn ausreicht, um seine eigene Geschwindigkeit drastisch zu verringern, damit sich und Andere zu gefährden und den Vehrkehrsfluss zu behindern, nur um glotzen zu können?

Warum eigentlich…

… baut man eine Ölbohrinsel und verschwendet offenbar keinen Gedanken daran, was passiert, wenn die Verbindung zwischen Plattform und Bohrloch abreißt?
Die viel zitierte Abdichtglocke hätte doch schon längst irgendwo stationiert sein können.

Die Kommunen fangen auch nicht erst an, Löschfahrzeuge herzustellen, wenn es brennt…

Das iPad: ein nutzloser, zu groß gewordener iPod touch?

Steve Jobs hat ein neues Apple-Produkt vorgestellt: das Apple iPad. Es handelt sich um das seit bestimmt 1 1/2 Jahren von den Fans und Analysten herbeigeredete Tablet-Gerät.
Bei den ganzen Funktionen und Eigenschaften, die man dem Gerät im Vorfeld angedichtet hat, war eigentlich schon klar, dass gewisse Teile derjenigen, die das Gerät erwarteten, auf jeden Fall enttäuscht sein würden.
Weiterlesen