Digitalisierung vs. Klima-Nachhaltigkeit

Man kennt sie: die „Buzzwords“, die, einer Mode folgend immer mal wieder wechselnd, die Diskussionen in bestimmten Themenfeldern antreiben. Ein Buzzword, das meinen Wirkungsbereich tangiert, ist „Digitalisierung“. Ich finde es extrem anstrengend. Insbesondere deswegen, weil die laufenden Diskussionen den Anschein erwecken, als sei dies etwas neues.

„Digitalisieren“ hieß eigentlich mal zum Beispiel, dass man analoge Medien in ein digitales Format überführt, eben „digitalisiert“. Was aktuell genau damit gemein ist, kann man natürlich nicht sagen (sonst wäre das Buzzword ja kein Buzzword), aber ich würde wie folgt zusammenfassen: Dinge mit Computern machen, bei denen das bisher noch nicht der Fall ist. Absurde Blüten treibt die Verwendung des Begriffs übrigens, wenn Kunden aufgrund der Abschaltung ihres ISDN-Anschlusses (wir erinnern uns: Integrated Services Digital Network) ein Produkt namens Digitalisierungsbox verkauft wird. Das zeigt noch einen anderen Aspekt auf: „Digitalisierung“ meint oftmals auch „Existierende Computersysteme durch neue Computersysteme ersetzen“.

In Folge 146 des Podcasts „Methodisch inkorrekt!“ wurde das Thema „Stromverbrauch durch die Digitalisierung“ angesprochen. Nun stellt uns der Klimawandel ja vor vielfältige Herausforderungen, und der Ruf wird laut, dass ein ganz klarer Baustein sein muss, dass wir ganz viel Digitalisierung, und damit einhergehend den massiven Ausbau mobiler, latenzarmer Breitbandnetze, bekommen, um Ressourcen besser nutzen zu können. Der Wunsch, dass viel mehr Dinge durch Computer geregelt werden sollen, bedeutet aber auch, dass viel mehr Rechenressourcen benötigt werden, die somit auch viel mehr Energie benötigen werden.

Immer mehr Systeme werden nicht „in Hardware gegossen“, sondern von Software angetrieben. Selbst Geräte, die früher noch feste Domäne von „großen Kisten“ waren, wie beispielsweise große Router in Rechenzentren, werden heute komplett in Software abgebildet.

Es wird somit also einen immer größeren Einfluss bedeuten, ob Software selbst auch nachhaltig entwickelt ist. Und damit spreche ich insbesondere von Leistungsfähigkeit und Langlebigkeit. Ich sehe aktuell aber sehr wenig Bestrebungen, die Entwicklung hierauf ausgerichtet wird, und habe allgemein mal Gedanken zum Thema „Stromverbrauch durch die Digitalisierung“ aufgeschrieben und was das aus meiner Sicht bedeutet, wenn wir von immer mehr „smarten Geräten“ (noch so ein Buzzword) umgeben sein sollen.

Energiebedarf im Haushalt

Fangen wir mal mit dem Grundenergiebedarf an. Vielleicht erinnert ihr euch noch, in den 1990ern war oft vom „Standby-Strom“ die Rede, und davon, dass z. B. Fernseher und Videorekorder Strom verbrauchen, nur um per Fernbedienung einschaltbar zu sein. Sehr oft wurde empfohlen, den Fernseher, wenn er nicht benötigt wird, abzuschalten und den Videorekorder an einer Steckdose mit Schalter zu betreiben, o.ä. Davon spricht heute niemand mehr, dafür gibt es zunehmend „smarte“ Geräte im Haushalt.
Auch wenn sie so genannt werden: die technische Umsetzung und die Effizienz hinsichtlich des Ressourcenverbrauchs dahinter ist alles andere als das.
Denn damit die Geräte auf externe Signale reagieren können, müssen sie natürlich ständig in Betrieb sein.

Die Smart Speaker wie Amazon Echo und co verbrauchen kontinuierlich, je nach Betriebszustand 3-5 W:
https://www.esource.com/es-blog-2-17-17-voice-control/ok-google-how-much-energy-does-alexa-consume

Die Spitze der Energieverschwendung im Bereich der smarten Produkte sind vermutlich Glühlampen, die Strom verbrauchen wenn sie nicht leuchten oder z. B. smarte Steckdosen, die natürlich auch im „ausgeschalteten“ Zustand ständig Strom verbrauchen, da sie kontinuerlich im WLAN oder per Bluetooth aktiv sind. Also nicht nur selbst Leistung verbrauchen sondern auch dafür sorgen, dass der Router im Haus ständig was zu tun hat, selbst wenn niemand in der Wohnung ist.

Doch damit nicht genug: die meisten der Geräte, die sich über eine App / Cloud steuern lassen, verbinden sich regelmäßig mit Servern im Internet, um diese Funktionen sicherstellen zu können. Das belastet also nicht nur die heimische Infrastruktur, sondern belegt kontinuierlich Ressourcen vom eigenen Zuhause bis zum Diensteanbieter, und schließlich gibt es irgendwo ein klimatisiertes Rechenzentrum mit Dieselgenerator vor der Tür, wo für mich ein Server läuft, damit ich per App von unterwegs das Licht im Esszimmer steuern kann. Die Frequenz allein solcher „Heartbeat“-Datenpakete kann auch im Sekundenbereich liegen. Pro Gerät.

Datenübertragungen bei Softwareentwicklung und Webseiten

In der Softwareentwicklung gibt es einen wachsenden Drang zur Paketierung bzw. Modularisierung. Das hat natürlich viele Vorteile: Man kann das eigene Produkt sauber von eingebundenen Bibliotheken trennen und kann die Versionen von eingebundenen Bibliotheken steuern.
Andererseits bedeutet das, dass bei dem Kompilieren einer Software, die auf diese Weise entwickelt wird, teilweise simpelster Code immer und immer wieder aus dem Internet geladen wird. Wenn solche Pakete gepuffert werden, wird aber dennoch regelmäßig geprüft, ob die heruntergeladene Version noch dem aktuellen Stand im zentralen Repository entspricht. Auch für vergleichsweise simple Projekte hat man hier schnell Abhängigkeiten im dreistelligen Bereich. Denn natürlich werden die Bibliotheken die ich einbinde, ihrerseits wieder abhängig von anderen Bibliotheken entwickelt.

Hier werden also immer und immer wieder dieselben Informationen verschickt, die eben auch nicht nur die letztendlichen Server, sondern die dazwischen liegende Infrastruktur belasten. Puffer an verschiedenen Stellen verbrauchen wiederum zusätzlich Ressourcen.

Leistungshunger des Webs

Ähnlich sieht es bei Webseiten aus. Das Laden einer modernen Webseite löst meist zig zusätzliche Anfragen/Verbindungen aus, nur, damit sie „schön“ aussieht.
Ein Beispiel: schaut mal mit dem Firefox und dem Entwicklermenü („Element untersuchen“ im Kontextmenü) mit dem Tab „Netzwerkanalyse“, wie viele Anfragen nominell und welche Datenmenge in Summe heute notwendig ist, um eine einfache Webseite zu laden.
Um die Einstiegsseite von minkorrekt.de zu öffnen, benötigte es im Dez. 2019 177 Anfragen und 2,14 MB Daten.
Eim Gegensatz dazu: Fefes Blog für den Juli 2019 sind 2 Anfragen und 95 KB Daten.
Fefes Blog ist jetzt nicht gerade etwas, was man als optisch ansprechende Webseite bezeichnen würde, aber geht es nicht am Ende des Tages bei einer durchschnittlichen Webseite um Übermittlung von Informationen?

Ein ganz plastisches Beispiel: Nehmen wir mal einen PowerMac G5. Das Gerät war 2005 eine Hochleistungs-Workstation. Schaut mal hier, wie es aussieht wenn man so einem Gerät versucht, moderne Webseiten aufzurufen:
https://www.youtube.com/watch?v=aBSgoJXMJ-A

Im Zuge der Nachhaltigkeit könnte man überlegen, ob man denn für bestimmte Tätigkeiten überhaupt einen neueren / schnelleren Computer benötigt. Wenn man mal einen Schritt zurück tritt, kann man die Feststellung machen: da steht ein Computer, der genug Leistung hat, um Videobearbeitung zu machen, DVDs zu mastern und in Tonstudios für die Musikproduktion eingesetzt zu werden, aber Webseiten anzeigen geht, wenn überhaupt, nur noch so mittel.

Komfort erkauft durch Ressourcenverschleuderung

In der Servertechnologie, das betrifft also sowohl das Web als auch Softwarelösungen allgemein, kommt der wachsende Einsatz von Virtualisierungstechnologien dazu. Virtualisierung auf verschiedenen Ebenen hat zwar viele Vorteile, aber die erkauft man sich nicht zuletzt mit Leistungseinbußen:

https://phoenixnap.com/blog/bare-metal-vs-virtualization

In Rechenzentren geht man seit einiger Zeit dazu über, dedizierte Hardware durch Softwarelösungen zu ersetzen, z. B. Router. Wenn die Routingperformance nicht ausreicht, wirft man einfach noch mehr CPU und RAM drauf. Wenn der Strom- bzw. Klimatisierungsaufwand steigt, zahlt der Kunde eben etwas mehr dafür, hat dann aber eine durchvirtualisierte Lösung mit diversen Annehmlichkeiten.

Dazu kommt, dass die Maschinen, die heutzutage als Server eingesetzt sind, von der Systemarchitektur her schnelle und stabile Desktopcomputer für den Rackeinbau sind. Es gibt zwar verschiedene Erweiterungen und Extras, die sich im Serverbetrieb nützlich machen, aber andere Maschinen (Mainframes) sind von grundauf auf die Dinge ausgelegt, auf die es beim Serverbetrieb ankommt:

https://dzone.com/articles/the-mainframe-versus-the-server-farm-a-comparison

https://www.wired.com/insights/2014/04/back-future-cloud-wont-replace-mainframe/

Heute sind noch viele Mainframes im Einsatz, die vor 10 oder 20 Jahren angeschafft wurden und trotz wachsenden Datenmengen noch immer allen Anforderungen gerecht werden. Im Gegensatz dazu gibt es Rechenzentren, wo ganze Racks voller Server alle 3 Jahre durchgetauscht werden müssen, weil die Hardware nicht mehr leistungsfähig genug ist.

Der Bedarf an Rechenzentrums-Kapazitäten wird noch gesteigert, da Anbieter diverser Dienste dazu verführen, mit dem belegten Speicherplatz möglichst gedankenlos umzugehen. Das ist ja nachvollziehbar, denn möglichst viele Daten zu haben ist ja gerade das Geschäftsmodell der meisten dieser Anbieter.

Hier könnte man mit einer Datensparsamkeit sicherlich enorm Festplattenspeicherplatz (und damit Serverkapazitäten, Strom, Klimaleistung, etc.) sparen.
Ein Beispiel: Sucht bei Youtube mal nach „for 10 hours“, es gibt so etwas wie das hier:
https://www.youtube.com/watch?v=G1IbRujko-A

Ein solches Video ist ja dann nicht ein mal auf einer Festplatte abgelegt, sondern redundant auf mehreren Festplatten, mehreren Kern-Rechenzentren, ggf. noch Backupsystemen, und das ganze dann nochmal über zig Rechenzentren bzw. Content Delivery Networks weltweit repliziert – zusätzlich dazu, dass Youtube (andere Dienste natürlich auch) jedes Video noch x-fach zusätzlich in allen denkbaren Videoformaten / Qualitätsstufen / Auflösungen bereit hält.
Ist so etwas notwendig? Könnten wir die Ressourcen, die dafür verbraucht werden, nicht sinnvoller einsetzen?

Die nächste Stufe der Replizierung und Virtualisierung ist im Rahmen von 5G jedoch bereits im Anmarsch. 5G verspricht extrem niedrige Latenzen. Um diese erreichen zu können, muss das Rechenzentrum näher an die Funkzelle rücken. Das soll dazu führen, dass, wenn ich mich innerhalb der Mobilfunknetzes bewege (das im übrigen aufgrund der höheren Funkfrequenz deutlich engmaschiger werden muss), „zieht“ ein Paket aus virtuellen Rechenknoten ständig mit mir mit, um für meinen Bedarf die Daten und Rechenressourcen vorzuhalten, die ich benötigen könnte:

https://www.funkschau.de/telekommunikation/artikel/156877/

Und was der Ausbau für 5G mal eben so zusätzlich zu all dem, was wir jetzt schon haben (und ja eigentlich weniger werden oder wenigstens stagnieren müsste), macht, lässt sich hier nachlesen:

https://www.golem.de/news/rechenzentren-5g-laesst-energiebedarf-stark-ansteigen-1912-145465.html

Ein paar weitere Aspekte werden hier aufgegriffen:

https://www.spiegel.de/netzwelt/netzpolitik/green-it-nur-nachhaltige-digitalisierung-kann-das-klima-retten-a-540d6972-bf67-4571-841d-9c1479df37e1

Dabei wird insbesondere darauf eingegangen, dass „Intelligenz“ im Sinne von „KI“ zumeist bedeutet, man hat ein Rechenzentrum mit so viel Daten wie nur möglich, die dann genutzt werden um eine Eintscheidung bei Anfragen treffen zu können. Und dass das wohl alles andere als nachhaltig ist.

Ich behaupte: Das Nutzungsverhalten für einen Großteil der PCs für einen Großteil der Zeit hat sich in den letzten 20 Jahren praktisch nicht verändert. Es geht um „Office-Anwendungen“, Nachrichtenaustausch und Surfen im Internet.
Sieht man auf den Leistungszuwachs der PCs der letzten 20 Jahre, müssten vor allem diese Dinge alle rasend schnell sein.
Das fatale ist: es gibt vermutlich keine andere Industrie, in der man wachsenden Ressourcenbedarf so leicht befriedigen kann.
Mein Eindruck ist, dass daher in der Vergangenheit an vielen Stellen eben nicht auf geringen Speicherplatzbedarf bzw. CPU-Auslastung optimiert wurde, sondern Wert auf andere Faktoren gelegt wurde.

Ich denke, auch in diesem Bereich muss es zu einem Umdenken kommen und wir sollten uns darauf fokussieren, die Ressourcen, die wir haben, effizienter zu nutzen, und das betrifft sowohl die Optimierung von Software als auch die Systeme, auf denen sie ausgeführt wird.

Das Problem wird jedoch sicherlich sein, für „Kann genauso viel wie vorher, ist jetzt aber effizienter“ wird der Kunde eher seltener Geld ausgeben als für „Hat 10 neue Funktionen und eine buntere Bedienoberfläche“. Und im Zweifel möchte sich ein Hersteller auch nicht die Blöße geben, wenn sich herausstellt, dass er über Jahre ein ineffizientes Produkt verkauft hat.

Veröffentlicht unter Allgemein | Schreib einen Kommentar

Über den Mangel an hochwertigen Arbeitsgeräten

Ich habe da vor einigen Jahren mal das Buch „Wie ich die Dinge geregelt kriege“ von David Allen gelesen. Es ist vermutlich eines der Werke, das größere Berühmtheit erlangt hat und Teil einer ganzen Welle von Selbstmanagement-Techniken Mitte der 2000er war. Die Technik wurde noch komplett papierbasiert vorgestellt. Eine Empfehlung, die mir besonders in Erinnerung geblieben ist, ist die, sich einen vernünftigen, hochwertigen Stift zu kaufen. Warum? Einerseits, weil man dann mehr Spaß daran hat, ihn zu nutzen, und andererseits, wenn man einen gewissen Wert mit dem Stift verbindet, gibt man ihn auch nicht so schnell aus der Hand.

Damit verbunden fällt mir immer wieder auf, dass man Kugelschreiber, z. B. beim unterschreiben, o.ä., gerne mal „weg gibt“ und nicht zurück bekommt. Oder, dass, wenn man einen benötigt, das Werbegeschenk, das man irgendwo herholt, nicht vernünftig schreibt. Ich habe mir daher mal ein paar wenige, gute Schreibgeräte gekauft, und kann das voll und ganz nachvollziehen: sie schreiben zuverlässiger, ich brauchte mir nur ein mal eine Form auszusuchen, mit der ich gut zurecht komme, und ich achte darauf, die Stifte auch zurück zu fordern, wenn ich sie aus der Hand gegeben habe.

Nun ist der Kugelschreiber freilich nicht mehr Nummer 1 unter den „Schreibgeräten“ im Arbeitsalltag, sehr viel wird mit dem Computer abgearbeitet. Auch wenn es hier in den letzten Jahren einen Trend dahin gehend gibt, dass man mit den Fingern auf eine Glasplatte hämmert (das ist dann noch ein Thema für sich): der Großteil der „Computerarbeiter“ hat Maus und Tastatur auf dem Schreibtisch.

Ich selbst arbeite auch viel am Computer, insbesondere beruflich. Was liegt also näher, als sich hier ebenfalls mit hochwertigen Arbeitsgeräten auszustatten? Doch leider ist das praktisch kaum möglich. Zunächst einmal sehe ich sehr wenig Anwendungsfälle, wo die Verwendung einer kabellosen Maus/Tastatur geboten ist, bei einer klassischen Bürosituation eigentlich garnicht. Zudem erkaufe ich mir die Freiheit immer mit Problemen: leer werdenden Akkus / Batterien und Funkstörungen.

Womit arbeiten also die Profis, also Menschen in Arztpraxen, Krankenhäusern, Versicherungen, Werkstätten, Behörden, etc., also Menschen, die mehr oder minder den ganzen Tag mit dieser Peripherie arbeiten?

Ich habe da bei diversen Besuchen mal drauf geachtet. Das erschütternde Resultat: auch hier gibt es den „Werbegeschenk-Effekt“: Bei eigentlich allen großen PC-Herstellern, insbesondere Dell, HP und Fujitsu, bekommt man Maus und Tastatur quasi ungefragt zum Rechner dazu. Das aber immer in einer unterdurchschnittlichen Qualität, und genau das wird bei diesen Rechnern eingesetzt.

Die Mäuse sind durchweg aus dünnem Material hergestellt, die Tasten reagieren sehr weich, sie sind leicht, gleiten aber schlecht und die Gleituntersätze nutzen sich schnell ab oder die Maus verliert sie direkt.

Tastaturen ist allen gemein, dass sie generell einen klapprigen Gesamteindruck vermitteln, die Aufstellfüße instabil sind, und natürlich nutzen die Tastaturen „Rubberdome“-Mechaniken für die Schalter, die mal eingeführt worden sind, um Herstellungskosten zu sparen.

Ich habe folglich mal auf dem Markt recherchiert, mit dem betrüblichen Ergebnis (anders lautende Hinweise nehme ich gern entgegen!), dass es für den klassischen Bürobereich fast keine Produkte am Markt gibt.

Der einzige Hersteller im Bereich Tastaturen ist Cherry, der allerdings auch viel Auswahl bietet, allerdings auch viele billige Modelle im Programm hat. Darüber hinaus gibt kaum etwas, insbesondere die großen PC-Hersteller haben keine hochwertigen Modelle im Angebot.

Bei Mäusen sieht es ähnlich aus. Hier hat sich die Industrie sehr auf kabellose Geräte eingeschossen und selbst da gibt es das „Brot-und-Butter“-Gerät eigentlich nicht mehr. Was mir hier auffällt: „normale“ Mäuse ohne großartige Zusatzfunktionen oder Ausrichtung auf eine spezielle Branche (dazu komme ich später) sind aus irgendeinem Grund immer kleiner als andere Produkte. Logitech, dessen über viele Jahre zufriedener Kunde ich bin, hat vor vielen Jahren mal ein Grunddesign vorgestellt, das ich (und, betrachtet man die lange Herstellungszeit, wohl auch viele andere) sehr überzeugend fand: Die Pilot Mouse. Die hat mal ein Scrollrad erhalten (Pilot Wheel Mouse) und in leichten Abwandlungen viele Jahre überdauert, bis sie mal zur „RX250“ umbenannt und dann sang- und klanglos eingestellt wurde.

Heutzutage gibt es jedoch eine Domäne von Computernutzern, die offenbar für mehr Absatz sorgen kann und an hochwertigen Produkten interessiert ist: sog. Gamer. Eigenschaften, die in hochwertige Eingabegeräten auch für Büroarbeiter verfügbar sein sollten (mechanische Schalter in Tastaturen, angenehm groß gefertigte Mäuse mit langlebigen Gleitern) gibt es dort. So habe ich persönlich mich zuletzt in diesem Markt bedient und mir z. B. eine Logitech G203-Maus gekauft, aber typischerweise wird in diesem Markt dann noch auf andere Kundenwünsche der Gamer eingegangen, die für den Büroalltag wohl wenig Relevanz haben dürften, wie zum Beispiel LED-Beleuchtungen mit Effekten, farblich hervorgehobene WASD-Tasten usw.

Leider muss ich auch feststellen, dass auf dem Tastaturmarkt die Cherry MX-Schalter eine große Dominanz haben. Die sind sicherlich gut und insbesondere besser als alles was Rubberdome heißt, aber bleiben doch stark hinter der Qualität zurück, die man Ende der 1980er/Anfang der 1990er kaufen konnte.

Der kanadische Hersteller Matias:

http://matias.ca/switches/quiet/

fertigt Schalter, die ich für die beste Symbiose aus taktilem Feedback und Geräuschpegel halte: eine Art Nachfolger des ebenfalls nicht mehr gefertigten ALPS-Schalters wie er in Apples legendärem „Extended Keyboard II“ zum Einsatz kommt.

Ich finde es schade, dass so viele Menschen quasi dazu gezwungen werden, ihr tägliches Arbeitsgerät, den PC, mit unnötig minderwertigen Eingabegeräten zu bedienen. Ob es hier noch zu einer Wende kommt? Wünschenswert wäre es jedenfalls, denn Geräte mit denen man besser (und langlebiger) arbeiten kann, wären jedenfalls möglich.

Veröffentlicht unter Allgemein | Schreib einen Kommentar

Es wird wieder mehr telefoniert

Es ist noch garnicht so lange her, dass ich ein bisschen über das Telefonat geschrieben habe:

Nun, da wir aktuell in einer Ausnahmesituation leben, und sich viele Dinge plötzlich ändern, erfährt offenbar auch das (Festnetz!-)Telefonat eine Renaissance:

https://www.channelpartner.de/a/es-wird-mehr-telefoniert,3629200

Veröffentlicht unter Allgemein | Schreib einen Kommentar

Kommentar zum Telekom-Video „Umstellung auf IP: Von Fakten und Falschmeldungen“

Auf dem YouTube-Kanal der Telekom wurde am 18.02.2020 ein Video mit dem Titel „Umstellung auf IP: Von Fakten und Falschmeldungen“ veröffentlicht:

https://www.youtube.com/watch?v=fXH7UKk8P9Y

Kurz gesagt: Die Telekom nimmt Bezug auf negative Presse im Zusammenhang mit der Migration auf All-IP. Es wird herausgestellt, dass die Telekom hier eine beeindruckende Leistung abgeliefert hat und noch abliefert, und dass die Medien sich unverhältnismäßig stark und ungerechtfertigter weise auf negative Effekte konzentrieren, da nur ein sehr geringer Teil der Kunden tatsächlich Einschränkungen erfahre. Das ist nicht das erste Video dieser Art, es gab schon ein ähnliches, das ich auch kommentiert habe:

Zunächst wird herausgestellt, dass bereits eine sehr große Anzahl der Anschlüsse (95% aller Kundenanschlüsse) auf die IP-Plattform migriert worden ist, und zwar im laufenden Betrieb, und dass das eine große Leistung sei.

Das ist zwar grundsätzlich der Fall, und man muss der Telekom zugestehen, dass das schiere Kundenvolumen gegenüber allen Mitbewerben in Deutschland eine Herausforderung an sich ist.

Aber das ist nicht das erste mal, dass eine „Migration“ im Telefonnetz im laufenden Betrieb stattfindet. Die Einführung von ISDN war nämlich eine ebensolche: Sämtliche Vermittlungsstellen, fast ausschließlich analog arbeitend und darüber hinaus aus verschiedenen Generationen stammend, mussten durch Technik ersetzt werden, die allein physisch einen komplett anderen Aufbau hat.

Interessanterweise wird im Video nicht ein mal der Begriff „ISDN“ erwähnt.
Es ist nachvollziehbar, dass die ISDN-Vermittlungsstellentechnik wie sie die Telekom im Einsatz hat, nicht mehr lange in Betrieb gehalten werden kann, da sie vom Hersteller schon einige Jahre nicht mehr unterstützt wird. Auf den Punkt wie sie die Telekom im Einsatz hat komme ich noch zurück.

Es seien 0,001% Kunden, die von der IP-Migration negativ beeinflusst seien. Wie das gerechnet wird, ob sich dieser Anteil tatsächlich nur auf die Festnetz-Kunden bezieht, wird nicht angegeben.

Wenn man das auf die eingangs erwähnten 25 Mio. IP-Anschlüsse zu 95% insgesamt umlegt, wären das etwa 260 Kunden bundesweit. Sorry, liebe Telekom, aber das nehme ich euch nicht ab. Mir sind allein etliche Fälle bekannt oder zugetragen worden, bei dem Kunden nach der IP-Umstellung deutliche Einschränkungen erdulden müssen, demzufolge bräuchte ich nur eine handvoll weiterer Techniker finden und dann müssten wir schon alle genannten Kunden zusammen haben. Das passt nicht so ganz. Entweder wurde bei der Definition von „von der IP-Migration negativ beeinflusst“ „geschummelt“, bei der Berechnung wurden als Kunden deutlich mehr gezählt als nur die Festnetz-Kunden, oder beides.

Ohne weiter auf dieses Thema einzugehen, gibt es einen Schwenk auf das Thema Mobilfunkausbau, und eine Kommune wird an den Pranger gestellt, in der es Probleme bei der Errichtung eines Mobilfunkstandorts gab und deswegen nun der Mobilfunkausbau und damit Angebote für die Endkunden gehemmt würden.

Schließlich wurden auch Satelliten-basierende Anschlüsse als „Alternative zum Festnetz-Anschluss“ beworben.

Hier werden aber zwei Dinge vermischt: Es wird vermieden, anzusprechen, dass die neue Technik, also z. B. VDSL-Anschlüsse, weniger Reichweite hat als Anschlüsse auf ADSL- oder gar ISDN-Basis. Wie selbstverständlich wird Mobilfunk als Alternative angesehen. Der ist aber gerade in solchen Regionen oft ähnlich schlecht ausgebaut wie das Festnetz (was wunder!), und weil die Standortverfahren nicht so laufen wie die Telekom sich das wünscht, ist dann die Kommune schuld, dass Festnetzkunden jetzt mit einem völlig kastrierten Kommunikationsanschluss zurückgelassen werden.

Die Kritik bleibt hier daher dieselbe: das alte wird abgebaut, bevor das neue dieselbe Dienstgüte erbringen kann. Und die neue Technik ist eben nicht besser als die alte, weil sie weniger Reichweite hat als die alte, und sie die Kunden zwingt, auf Mobilfunk oder sogar Satellit umzusteigen.
Dazu kommt, dass die Telekom – ohne technische Notwendigkeit – LTE als „Festnetzanschluss“ nur dann anbietet, wenn am Standort auch DSL verfügbar ist. Bis heute ist dieser Hybrid-Anschluss nur mit Telekom-eigenen Routern nutzbar, die die Internetverbindung über LTE nur dann freigeben, wenn auch eine gültige DSL-Synchronisation vorliegt. Und die Not kann hier noch nicht so groß sein, denn schließlich wäre durch den Rückbau der Vermittlungsstellen-Althardware ja genug Potential für Ersatzteile vorhanden.

Und: Es ist ja auch durchaus im Rahmen des Möglichen, vorhandene Baugruppen aufzuarbeiten, um ihre Lebensdauer zu verlängern. Auch so etwas wird an anderer Stelle ja gemacht: https://www.youtube.com/watch?v=q4bDA_k2m6g

Auch wenn das im Jahre 2020 völlig unvorstellbar scheint: Es gibt in Deutschland bis heute Regionen, wo Internet ausschließlich über ISDN möglich ist. Mobilfunk ist dann oft so schlecht ausgebaut, dass man für Handyempfang „auf den nächsten Acker“ fahren muss.

Diesen Kunden wird der ISDN-Anschluss aktiv gekündigt, und, da kein DSL geliefert werden kann, werden sie auf *eine* analoge Leitung zurückgefahren. Diese Kunden verlieren also nicht nur ihren einigermaßen funktionierenden Internetzugang, sondern direkt auch noch einen vernünftigen Telefonanschluss sowie die Möglichkeit, 2 Dienste (Telefon bzw. Internet) über ein Adernpaar fahren zu können. Nun könnte man ja sagen „Dann brauche ich eben einen analogen Anschluss für’s Telefon und einen für’s Internet“, aber – völlig überraschend – ist in besagten Regionen das Netz nicht ausreichend ausgebaut, um allen betroffenen Kunden die doppelte Kapazität an Leitungen (Also Kupfer-Doppeladern) anzuschalten.

Dass es durchaus erhebliche Probleme gibt, ist belegt, und führt eigentlich nur deswegen nicht zu größerem Wirbel, weil die BNetzA Internet über einen analogen Telefonanschluss als „funktionalen Internetanschluss“ einschätzt:
https://mdb.anke.domscheit-berg.de/2019/11/bundestagsreport-isdn-abschaltungen/

Da habe ich dann erst recht nichts von den in dem Interview beworbenen (aber nicht näher ausgeführten) neuen Diensten, die die neue Plattform leisten soll.
Mich würde immer noch interessieren, welche neuen Dienste das IP-Telekommunikationsnetz für den Kunden bietet. Oder anders formuliert: Mir würde genügen, wenn das neue Netz wenigstens den gleichen Leistungsumfang hätte wie ISDN (siehe dazu meinen anderen Blogbeitrag).

Wie gesagt: es ist nachvollziehbar, dass die Telekom die ISDN-Vermittlungstechnik ihres Bestandes austauschen muss. Die Siemens EWSD und Alcatel S12 sind sicherlich grundsolide Geräte, aber eben alle auch schon erwähnte ~25 Jahre alt, und seitens ihrer Hersteller schon lange abgekündigt.

„25 Jahre“, das klingt natürlich schnell alt. Keiner von uns möchte mit einem 25 Jahre alten Handy oder Laptop seine tägliche Arbeit verrichten müssen. Aber: Wenn das so uneingeschränkt stimmen würde, müssten wir unverzüglich größere Teile unseres Verkehrsnetzes stilllegen. Verkehrssicherungstechnik wie Stellwerke für Eisenbahn und Straßen- bzw. U-Bahnen sind meist deutlich älter als 25 Jahre. Hinzu kommen Steuerungen für Kraftwerke und generell Industrieanlagen, hier sind teilweise auch Maschine und Systeme im Einsatz, die um die 100 Jahre alt sind und noch zuverlässig ihren Dienst tun.

Der ICE 1 beispielsweise ist bereits über 30 Jahre alt, und es sind auf deutschen schienen viele weitere Lokomotiven und Waggons unterwegs, die noch älter sind — und das überhaupt nur dürfen, wenn sie „Frist“ haben, eine Art Eisenbahn-TÜV, der allerdings deutlich strenger und aufwändiger ist als das was wir vom KFZ kennen.

Und darüber hinaus: die Hersteller der MSANs bieten wie selbstverständlich, neben (V)DSL- und POTS-Linecards auch ISDN-Linecards an. Es wäre technisch also kein Problem, einerseits die alten Systeme zurück zu bauen, aber andererseits als Sonderlösung für die Kunden – und zu Sonderlösungen ist man ja offenbar bereit (s.o.) – , denen man keine Alternative aus dem Standardportfolio bieten kann, über diesen Weg weiterhin einen funktionalen Internetanschluss zur Verfügung zu stellen.

Veröffentlicht unter Allgemein | Schreib einen Kommentar

Das Telefonat als Auslaufmodell? – Über die Vorzüge synchroner Kommunikation

Ich erlebe es immer wieder, und mit zunehmender Verbreitung asynchroner Kommunikationsformen wie Mail, Instant Messenger oder Sprachnachrichten: Telefonieren wird als überkommene Technologie betrachtet. Das Tischtelefon wird soundso geächtet (wobei ich für das klassische Tischtelefon durchaus Anwendungsfälle sehe, siehe diesen Beitrag).

Ich habe in letzter Zeit insbesondere diese Argumente gegen Telefonate mitbekommen:

  • Ich störe den anderen grundsätzlich.
  • Telefonate sind nicht archivierbar.
  • Ich muss mich mit dem Gegenüber beschäftigen und muss auf Fragen sofort reagieren.

Das Telefon ist aber nicht nur einfach nur ein Kommunikationsmedium wie jedes andere, sondern der fundamentale Unterschied besteht darin, dass Mail, Chats, etc. asynchrone Medien sind, während das Telefonat wie auch das persönliche Gespräch synchron arbeiten: alle Parteien müssen zum gleichen Zeitpunkt an der Kommunikation teilnehmen.

Jedes Medium für seinen Zweck

An der Stelle möchte ich es einmal etwas allgemeiner fassen und sagen: Jedes Kommunikationsmedium hat seine Stärken und optimalen Einsatzgebiete. Ebenso kann jedes Medium auch falsch genutzt werden. Ich würde ein Telefonat z. B. dann bevorzugen, wenn ich kurzfristig eine Antwort benötige. Ich habe es schon oft mitbekommen, dass eigentlich zeitkritische Informationen über ein asynchrones Medium ausgetauscht werden („Bist du schon im Besprechungsraum? Kannst du mal nachgucken welchen Anschluss der Beamer hat?“, „Wir fahren gleich zu XY, möchtest du bei uns mit fahren?“). Wo ein klärendes Telefonat kaum länger gedauert hätte als das Verfassen der initialen Kurznachricht, ist man nun permanent latent abgelenkt und guckt ständig auf’s Gerät („Ist die Nachricht schon gelesen worden? Habe ich schon eine Antwort?“). Ich bin hier lieber ein mal kurzzeitig zu 100% „abgelenkt“, habe dann aber in der Regel direkt meine Antwort, als dass ich für eine ungewisse Zeitspanne latent gefordert bin.

Telefonate werden in der Regel nicht archiviert, wenngleich das technisch kein Problem darstellen würde. Allerdings gibt es für „Flurgespräche“ und Besprechungen auch kein Wortprotokoll. Aber das ist auch gar nicht erforderlich, wenn es um unwichtige Dinge geht (s.o.), die wiederum einen Chatverlauf o.ä. verwässern würden. Den Kern des Ganzen offenbart dieses unfreiwillig komisch wirkende „Telefon-Knigge“-Video https://www.youtube.com/watch?v=AchErsF7GHU : Nehmt euch Zeit! Nehmt euch Zeit für effiziente und effektive Kommunikation. Egal, welches Medium man nutzt: man kann es immer ineffizent nutzen. Telefonieren macht einem hingegen auch bewusster, dass man gerade die Zeit Anderer beansprucht. Das ist bei E-Mails nicht anders! Und es wird tendenziell sogar mehr, wenn man mit wenig Aufmerksamkeit verfasste Antworten verschickt, die die Effizenz einer Diskussion sinken lassen.

Und eine gewisse Kommunikationskultur kann gerade auch helfen, oft genannte Nachteile synchroner Kommunikation zu mildern: Wir haben doch heute eher das Problem, dass zu viel Daten vorliegen. Wird ein komplexeres Thema mit mehreren Beteiligten erörtert, sind Mails im 2-stelligen Bereich doch kein Problem. So ein Mailverlauf wird dann zusätzlich aufgebläht, weil Verteiler nicht oder falsch genutzt werden, man also dieselbe Mail mehrfach erhält, dann werden Dokumente verschickt, dann kommen Mails dazwischen wie „Ich konnte den Anhang nicht öffnen“ oder „Ich hab die Mail versehentlich gelöscht, kann ich sie nochmal bekommen?“, oder man schweift vom eigentlichen Thema ab (Jemand schreibt „Jetzt wo $Fußballverein gewonnen hat, kann ich dazu ja mal was sagen“,…), etc. In diesem Wust – und dann bei der Qualität der Suchfunktionen heutiger Mailprogramme – noch etwas zu finden, ist sehr schwierig. Und trotzdem werden Informationen dann noch außerhalb des Mailverlaufs geklärt und sind dann nicht automatisch Teil eines entsprechenden Archivs.
Aufgeräumter kann es sein, wenn man nach einem längeren Telefonat / einer Telefonkonferenz ein Ergebnisprotokoll verfasst und allen Teilnehmern zugänglich macht.
Bei Mails wird ein Archiv oft als „Beweismittel“ angesehen. Aber wie viel ist das im Alltag wert? Bei justiziablen Aussagen / Rechtsstreitigkeiten vielleicht, aber ansonsten kann man hier natürlich auch problemlos behaupten „Das habe ich aber anders gemeint“, „Da habe ich mich auf einen anderen Absatz bezogen“, etc., oder man kann – unabsichtlich oder absichtlich – Dinge uneindeutig formulieren.

Und „Aufmerksamkeit“ ist direkt der nächste Punkt: ich habe in meinem Mailprogramm einen Ordner, in dem ich nur Mails sammle, bei denen ich auf die Antwort anderer warte. Teilweise schleppen sich Konversationen / Diskussionen über Monate hin, weil Adressaten nicht oder unzureichend antworten.

In schriftlicher Kommunikation im Allgemeinen lassen sich Emotionen sehr schlecht ausdrücken. In einem Telefonat habe ich die Gelegenheit, zu hören, wie das Gegenüber drauf ist, und vor allem auch: wie sehr es bei der Sache ist. Eine E-Mail, Kurznachricht, Sprachnachricht, etc. ist schnell mal dahin geklatscht. Gerade bei Diskussionen per Mail habe ich es schon oft erlebt, dass Adressaten mit TOFU einen halben Satz über eine längere Diskussion schreiben und von 10 Aspekten ungefähr drei halb beantworten. Bei einem Telefonat kann man freilich auch nicht ganz bei der Sache sein, aber es fällt auf. Was in einem Telefonat ebenfalls leichter auffällt: wenn ich das Gegenüber inhaltlich verliere oder ich etwas grundlegend falsch verstanden habe.

Was sagt der Rest des Internets?

Das sind nun meine persönlichen Ansichten und Erfahrungen, aber ich habe mal recherchiert, wie Andere zu dieser Fragestellung stehen und festgestellt, dass ich

https://www.sciencedirect.com/science/article/abs/pii/S002210311630292X
„Ask in person: You’re less persuasive than you think over email“

Die einzige wissenschaftliche Veröffentlichung, die ich finden konnte. Man hat mit einer Studie untersucht, wie man Menschen zu etwas bewegen kann, und hat dabei insbesondere gezeigt, das text-basierte Kommunikation wie zum Beispiel E-Mail weniger Überzeugungskraft bringt als die persönliche Ansprache.

https://www.foerderland.de/organisieren/news/artikel/effiziente-kommunikation-e-mail-vs-telefon-1/

Hier werden E-Mail und Telefon als Kommunikationsmittel gegenüber gestellt, der E-Mail werden mehr Vorteile zugesprochen, da man hier zeitsourverän ist E-Mails automatisch archiviert werden.

https://www.nfon.com/de/news/presse/blog/blog-detail/e-mail-chat-oder-telefon-wie-aus-dir-ein-beliebter-und-effizienter-arbeitskollege-wird

Der Telefonanlagen-Anbieter NFON stellt E-Mail, Telefonat, Chat und Videotelefone gegenüber. Vorteile für das Telefonat werden vor allem gesehen bei:

  • Erörtern komplexer Sachverhalte
  • Pflegen persönlicher Kontakte

Zu ähnlichen Ergebnissen kommt man hier: https://9clouds.com/blog/phone-call-vs-email-how-to-know-when-to-take-the-conversation-offline/

https://toolblog.de/2017/06/28/telefonieren-ist-besser-als-schreiben/

Etwas weiter geht diese Webseite und listet 10 Punkte, wann ein Telefonat besser ist als eine E-Mail. Insbesondere bei sehr wichtigen Nachrichten, oder auch, wenn man bewusst für den Moment keinen schriftlichen Beleg über das Gesprochene haben möchte, ist es sinnvoll.

Zu ähnlichen Ergebnissen kommt man hier: https://www.inc.com/kevin-daum/10-reasons-to-pick-up-the-phone-now.html

https://blog.hubspot.com/marketing/when-phone-is-better-than-email

Hier werden noch ein paar Umfragen / Studien verlinkt. Und ein anderer Aspekt offenbar: E-Mails sind leichtgewichtiger als z. B. ein Telefonat, aber das führt offenbar auch dazu, dass sie sehr oft verschickt werden. Ungelesene Mails im dreistelligen Bereich sind Usus, was doch wiederum dazu führt, dass man sie nicht aufmerksam liest, direkt löscht, oder sich Kommunikation hier eben auch unnötig in die Länge zieht.

Also: Beschäftigt euch mit euren Menschen, steigert Effizienz und Effektivität durch Wahl des optimalen Mediums für jede Gelegenheit und ignoriert das Telefon nicht, nur weil es das schon lange gibt. Oder, wie der Werbeslogan eines großen deutschen Providers lautete: „Ruf‘ doch mal an!“

Veröffentlicht unter Telefon & Co | Ein Kommentar

Kommentar zum Telekom-Video „Keine Angst vor der IP-Umstellung“

In ihrem YouTube-Kanal hat die Telekom ein Video mit dem Titel „Keine Angst vor der IP Umstellung: Beispiel Infas“ online gestellt. In diesem Beitrag geht es darum, dass das Umfrageinstitut Infas ihre Telefonie von ISDN auf VoIP (SIP) umgestellt hat.

Zumindest sind aktuell die Callcenter-Anschlüsse auf VoIP umgestellt worden, die Geschäftstelefonie läuft (noch) über ISDN. Ich hatte bereits bereits in einem anderen Beitrag angemerkt, dass bei VoIP Vorteile gegenüber ISDN benannt werden, die keine sind, und Nachteile verschwiegen werden. Dies setzt sich auch in diesem Beitrag for.

Ein Nachteil, den VoIP gegenüber ISDN nachwievor hat, wird direkt in 2:50 angesprochen: ISDN hat in Stein gemeißelte „Cause“s, also Situations/Fehler/Statuscodes. Diese sind zahlreich, genormt und decken eigentlich alle wichtigen Situationen ab, während es bei SIP von etlichen Faktoren abhängig ist, wann was wie signalisiert wird bzw. ob überhaupt.

Der IT-Leiter zeigt einen größeren Server, der für die ausgehenden Telefonate zuständig ist bzw. war. Es heißt, mit ISDN wären 90 Gesprächskanäle maximal möglich. Das ist Unsinn. 90 Gesprächskanäle entsprechen 3 PMX-Anschlüssen. Natürlich könnte man hier schlicht weitere PMX-Anschlüsse schalten. Es ist denkbar, dass bei Situation vor Ort die Leitungskapazität der Amtsleitungen oder die der Vermittlungsstelle erschöpft ist, aber das Problem liegt nicht in ISDN als Technologie begründet.

Es wird bei 3:55 behauptet, dass ISDN-Karten nicht mehr erhältlich seien. Dazu ist festzuhalten: Es gibt nachwievor ISDN-Karten zu kaufen, allerdings wird in dem Bereich sicherlich nicht mehr (viel) entwickelt. Im Gegensatz dazu gibt es aber längst und immer noch einen Markt mit ISDN Gateways. Diese erleben gerade wachsenden Umsatz, da Bestandssysteme bei VoIP-Umstellungen per Gateway angeschaltet werden, statt sie zu erneuern. Einer der Hersteller, Audiocodes, ist bei dem Kunden sogar auch im Einsatz und im Bild zu sehen. Man hätte die Audiocodes-Gateways einfach nur mit PRI-Modul beschaffen müssen, und dann hätte *exakt* das Setup das dort jetzt als das „moderne“ zu sehen, ist auch von ISDN angetrieben werden können.

Mit der Argumentation „Telefonie über SIP braucht eine gewisse CPU-Geschwindigkeit“ wird verkauft, dass das für das, was früher ein (alter) Server gemacht hat heute nötig sind:

  • 3 Audiocodes-Gateways
  • 3 physikalische Server
  • 1-4 (?) Server als eine VM

Die Vorteile von neu gegenüber alt seien sehr viel weniger Platzbedarf und deutlich gesunkener Stromverbrauch. Der gesunkene Platzbedarf ist rein optisch, anhand dessen, was im Video zu sehen ist, nicht nachzuvollziehen. Ebenso wenig der gesunkene Stromverbrauch. 5-9 Server/Gateways benötigen „sehr viel weniger“ Strom als ein einzelner Server, den man ggf. auch mal einfach hätte erneuern können?

Der Leiter erklärt weiter: statt wie mit ISDN 90 Gesprächskanälen seien jetzt 200 möglich. Zum Vergleich: PCI-ISDN-Karten gibt es z. B. mit 4x PRI=120 Gesprächskanälen. Um den zusätzlichen Bedarf zu decken, hätte man also z. B. in den alten Server einfach nur eine 4xPRI-Karte zusätzlich einbauen können und wäre fertig gewesen. Offensichtlich wäre sogar noch ein Steckplatz dafür frei gewesen.

Im Anschluss an das Interview mit dem Kunden wird ein „Key Accounter“ der Telekom befragt. Er sagt, die Umstellung sei ein „sehr, sehr spannender Prozess“ gewesen und sie mussten „sehr früh viele Kollegen“ einbinden, und es sei seine „sehr, sehr individuelle“ Lösung entwickelt Für die Umstellung eines (zugegebenermaßen etwas dickeren) Telefonanschlusses? Ernsthaft?

Auf was ich an dieser Stelle hinaus möchte: Als Vorteile der Umstellung werden angegeben, dass man jetzt mehr Gespräche parallel führen kann als früher und dass die Technik weniger Strom verbraucht. Beide Vorteile sind *nicht* im Kern auf die Umstellung von ISDN auf SIP zurückzuführen. Wenn denn wirklich der Stromverbrauch gesunken ist (was ich auf Basis der Schilderungen im Video nicht nachvollziehen kann), dann hätte man das auch erreichen können, indem man bei bestehender Kommunikationsarchitektur modernere Serverhardware anschafft. Und für weitere Gesprächskanäle hätten einfach nur zusätzliche PMX-Anschlüsse geschaltet werden müssen.

Das ist das eine. Das andere ist: durch die Umstellung ergeben sich hier – wie oft bei VoIP-Umstellungen- *keine Vorteile für die Nutzer*. Wenn ich auf eine modernere Telefonie umsteige, und das offenbar unter hohem Aufwand, dann würde ich auch Vorteile für die Telefonierenden erwarten. So etwas wie

  • bessere Sprachqualität
  • höhere Verbindungsqualität
  • kürzere Rufaufbauzeiten
  • weniger Jitter

Diese Punkte wurden sämtlichst verschwiegen. Bei 7:30 weist der „Key Accounter“ der Telekom darauf hin, dass man mit der IP-Plattform ja auch neue Ideen umsetzen könne. Hier werden jedoch keine Beispiele angegeben. Warum wohl?

Bei 8:05 wird hochgradig subtil das Thema angeschnitten, dass durch Abschaltung von ISDN-Anschlüssen, selbst wenn kein DSL verfügbar ist, künftig nur noch POTS-Anschlüsse möglich sind und dass dadurch die IP-Zustellung „zunächst als Rückschritt“ erscheint (vgl. https://technikgedoens.de/archives/249). Nein, der erscheint nicht nur so – Menschen, die einen Haufen Leistungsmerkmale, mehr als einen Gesprächskanal, Durchwahlanschlüsse, etc. verlieren, werden in die kommunikationstechnische Steinzeit geworfen. Und das wäre absolut nicht nötig, man bräuchte für die neu aufgestellten MSANs in den Vermittlungsstellen einfach nur ISDN-Linecards zu beschaffen.

Veröffentlicht unter Allgemein | Ein Kommentar

ISDN ist tot, es lebe des Kaisers Telefon!

Den Anstoß zu diesem Beitrag gab mir ein Artikel der bei ZDF Heute erschien. Leider enthält der Artikel einige Ungenauigkeiten, das hätte ich von Peter Welchering so nicht erwartet. So wird unter anderem von ISDN und Internet-Zugang mit 384 kBit/s gesprochen. 384 kBit/s sind mit ISDN nicht realisierbar. Über einen ISDN-Anschluss sind 64 kBit/s möglich, 128 kBit/s bei Kanalbündelung. Es lassen sich z. B. noch Standleitungen realisieren, dort sind dann 2 MBit/s möglich. Vermutlich ist hier aber der Internetzugang mit sog. „DSL light“ gemeint. Die Grundaussagen des Artikels bleibt aber wahr, und es ist nicht das erste mal, dass ich davon höre.

  • Es gibt Regionen in Deutschland, die auch im Jahr 2019, wenn, dann nur über eine bruchstückhafte Versorgung mit Mobilfunk verfügen. Wir reden hier von ganz schnöder Telefonie, von 3G oder gar LTE ganz zu schweigen.
  • „Schnelles“ Internet ist, wenn überhaupt, nur mit der kleinstmöglichen Variante, 384 kBit/s, möglich, dem so genannten „DSL light“. Dabei handelt es sich um Gegenden, die z. B. aufgrund der großen Entfernung zur nächsten „Schaltstelle“ eigentlich nicht per ADSL zu versorgen wären, wo man aber eine Reduktion der Geschwindigkeit (ADSL startete in Deutschland mit 768 kBit/s im Downstream) in Kauf nimmt, um so immerhin einen Internetzugang zu realisieren, der schneller als ISDN ist. Es gibt allerdings auch Regionen in Deutschland, in denen bis heute kein DSL-Anschluss verfügbar ist. Wenn es einen Internetzugang gibt, dann über wackelige Richtfunkstrecken, die oft von privaten Initiativen gebaut worden sind, die oft nur wenige MBit/s liefern und dann noch von einigen Parteien geteilt werden.
  • Falls das alles nicht verfügbar ist, läuft der einzige Zugang zum Internet per ISDN. Per Einwahl. Wie in den 1990ern. Bis jetzt.

Was passiert da aktuell?

Die Telekom will das Kernnetz für ISDN abschalten. Das ist grundsätzlich ein Prozess, der nicht nur die Telekom und nicht nur Deutschland betrifft.
Die Technik (Vermittlungsstellen), die hier auf Provider-Seite im Einsatz ist, ist seitens der Hersteller seit Jahren abgekündigt. Dadurch ist die Ersatzteilversorgung nicht mehr garantiert. Es heißt, ganze Vermittlungsstellen werden schon aufgrund kleinerer Defekte außer Betrieb genommen. Die Telekom hat größtenteils die Produkte Siemens EWSD und Alcatel (früher SEL) S12 im Einsatz. Die Hardware entspricht dabei nicht mehr dem Stand der Technik. Es heißt, auch Stromverbrauch sei ein Thema.

ISDN konnte einst das Versprechen einlösen, unterschiedlichste Kommunikationsnetze in einem, volldigitalen, Netz zu vereinen. Mit dem Aufkommen von (A)DSL jedoch wurde ISDN bereits etwas dieses Sinnes beraubt, denn ISDN, so wie es im Einsatz war, konnte keine hohen Geschwindigkeiten für den Endkunden liefern, wie es ADSL vom Fleck weg ermöglicht hat. Eine Weiterentwicklung war zwar angedacht, kam aber über Pilotversuche nicht hinaus.

Insofern mussten fortan zwei Infrastrukturen parallel betrieben werden. Mit den Jahren wuchsen die Geschwindigkeiten und die Hardware wurde erschwinglich, um Voice over IP in der Masse zu realisieren. Zwar wurden IP-Telefone für den Endverbraucher noch nicht populär, aber die Technik war bereits so erschwinglich, dass sie in Router für den Heimbereich eingebaut werden konnte.
Einer der ersten Router dieser Art, der auch weite Verbreitung erreichte, war die FRITZ!Box Fon (WLAN), die etwa 2004 auf den Markt kam.
Zusätzlich verlor der klassische Telefonanschluss an Bedeutung, dank Internet-Flatrates und Diensten wie Skype wurde auch Telefonie im Sinne von „Audio-Gespräch“ bei beliebigen Entfernungen kostenlos.

Der Bedarf an immer schnelleren Internet-Anschlüssen war nur zu realisieren, indem die Länge des Kupferkabels zwischen Provider und Kunde immer weiter verkürzt wird. Das war irgendwann aus der Vermittlungsstelle heraus nicht mehr möglich. Damit begann der Prozess, dass überall am Straßenrand deutlich größere „graue Kästen“ aufgestellt wurden, bei der Telekom Multifunktionsgehäuse (MFG) genannt. Diese Gehäuse sind per Glasfaser an die Vermittlungsstellen angebunden und enthalten mitunter „VDSL-Modems“ (DSLAM), um die Gegenstelle zum Kunden zu bilden.

Mit diesem Schritt setzte letztlich eine Runderneuerung der aktiven Technik des Telefonnetzes ein. Der Kunde soll nur noch einen (V)DSL-Anschluss bekommen und sich dann die Dienste buchen können, die er benötigt. Neben Telefonie und Internetzugang kam Fernsehempfang dazu und dies wurde bzw. wird noch als „Triple Play“ vermarktet.

Das Telefon: vergessen

Der klassische Telefonanschluss blieb hier jedoch zunächst auf der Strecke. Für (nominell) einen Großteil der Kunden mögen die bis dahin vorgesehenen Dienste ausreichend sein, aber es gibt einige Probleme und generelle Veränderungen, auf die ich eingehen möchte und die oft verschwiegen werden.

Zu allererst: VoIP-Telefonie hat Vorteile gegenüber klassischer Telefonie. Im wesentlichen sehe ich:

  • HD-Audio
    • Lange Zeit war das Telefonnetz mit 3,4 kHz Bandbreite bei der Audioübertragung beschränkt. Dieser Wert stammte aus grauer Vorzeit, in der Kohlemikrofone eingesetzt wurden, die eine größere Bandbreite nicht leisten konnten, hier entstand der typische „Telefonklang“. Im Mobilfunknetz 3G wurde zuerst ein Breitband-Codec populär (AMR-WB), der z. B. als „HD Audio“ bezeichnet wird. Im LTE-Netz werden zunehmend Telefonate auch als VoIP abgewickelt, dort ist diese HD-Telefonie noch stärker verbreitet. IP-Telefone unterstützen HD-Telefonie schon länger, auch mit noch weiteren Codecs.
  • Flexible Zuteilung von Sprachkanälen
    • Bei ISDN sind technisch Sprachkanäle nur in Einheiten von 2 Sprachkanälen (S0) oder 30 Sprachkanälen (PMX) möglich. Mit VoIP sind hier flexiblere Modelle möglich, auch asymmetrisch; viele Anbieter ermöglichen das Zubuchen einzelner Sprachkanäle, oft sogar monatlich zu ändern.
  • Nomadische Nutzung
    • Ein klassischer Telefonanschluss ist auf das Adernpaar beschränkt, auf das er aktuell physisch geschaltet ist. Ist die Leitung gestört, ist der Anschluss nicht nutzbar. Bei VoIP-Anschlüssen wird das Internet als Basisdienst genutzt, damit sich die Gegenstelle des Kunden bei der Gegenstelle des Providers registrieren und für Telefonieverkehr bereit zeigen kann. Dabei spielt es keine Rolle, wo sich die Gegenstelle des Kunden physisch befindet, solange sie Zugang zum Internet hat.
  • Bei VoIP benötigt man keine Telefonanlage mehr, oder die Telefonanlage kann „im Netz“ sein.
  • SIP ist ein offener Standard und setzt auf dem TCP/IP-Stack auf. Das ist deutlich einfacher als die überladene ISDN-Spezifikation.

Dem gegenüber stehen allerdings folgende Punkte:

  • VoIP ist keine zwingende Voraussetzung für HD-Audio
    • Es ist nicht korrekt, dass VoIP für HD-Audio erforderlich ist. Technisch ist das bereits im ISDN möglich, der bei VoIP häufig genutzte Audio-Codec G.722 stammt aus den 1980ern und kann auch im ISDN genutzt werden. Leider gibt es nur praktisch kein Endgerät, dass das unterstützt. Allerdings ist über etliche Jahre bereits ISDN zur Übertragung von hochqualitativen Audiosignalen genutzt worden, nämlich zum Beispiel bei Radiosendern zur Einbindung von Außenstellen auf Veranstaltungen. Ein bekanntes System in diesem Bereich war das Musiktaxi.
  • Die nomadische Nutzung wird seitens der Provider oft aktiv verhindert, insbesondere von den Großen (Vodafone, Telekom).
  • Der de-facto-Standard für VoIP, SIP, liegt im Leistungsumfang deutlich hinter dem, was bei ISDN seit den 1980ern üblich war. Vor allem zeigt sich auch heute, etwa 15 (!) Jahre nach der Verfügbarkeit für die Masse, dass es zu viel Interpretationsspielraum der RFCs gibt, für dasselbe Leistungsmerkmal unterschiedliche (inkompatible) Implementierungen, existieren, usw.:
    • ISDN unterstützt Blockwahl und überlappende Wahl. SIP nur erstere, für überlappende Wahl gibt es nicht-standardisierte Varianten der Signalisierung, die nicht geräteübergreifend funktionieren müssen.
    • Leistungsmerkmale wie Rückruf bei besetzt und Anrufweiterleitung im Amt können nicht durch Endgeräte gesteuert werden, weil es hierfür keine festgelegten Verfahren gibt.
    • Selbst für die Übermittlung von DTMF-Tönen sind aktuell drei verschiedene Verfahren im Einsatz.
  • ISDN bietet eine garantierte maximale Rufaufbauzeit, die danach spezifiziert wurde, wie lange es dauert, den Handapparat vom Telefon zum Ohr zu führen. (Anm.: Hier bin ich aktuell noch auf der Suche nach einer Quelle)
  • Auch bei ISDN sind Fallbacks realisierbar, wenn auch etwas aufwändiger (mit Rufumleitungen / CLIP no screening).
  • ISDN stellt leitungsvermittelte Verbindungen zur Verfügung. Das bedeutet: steht eine Verbindung, ist die Datenrate für die Dauer der Verbindung fest verfügbar, Schwankungen in der Übertragungsgeschwindigkeit treten damit praktisch nicht auf (Jitter). Telefonie ist somit mit einer konstant geringen Verzögerung realisierbar.
  • Bei ISDN kommt die Speisung für den Endpunkt des Netzes (NTBA) mit aus der Vermittlungsstelle, die auch genügt um ein Telefon daran zu betreiben. Man kann bei Stromausfall weiterhin telefonieren. Heute ist der Kunde selbst dafür verantwortlich, es wird seitens der Provider auch aktiv geraten, sich eine USV anzuschaffen.
  • In der Praxis werden VoIP-Netze selten „nackt“ eingesetzt. Speziell größere Installationen sehen sich der Anforderung gegenüber, das z. B. zwischen unterschiedlichen Audiocodecs transkodiert werden muss, oder dass Audioströme ver- bzw. entschlüsselt werden müssen. Dazu kommt das Problem, dass man aus Sicherheitserwägungen nicht möchte, dass SIP-Endgeräte, die schließlich direkt im Firmennetz arbeiten, mit anderen Endpunkten im Internet direkt kommunizieren können. Oft weist die Firmware von VoIP-Telefonen erhebliche Sicherheitsmängel auf, sodass das VoIP-Netz von einer zentralen Instanz gegenüber dem Internet abgeschirmt werden soll, meist als Session Border Controller (SBC) bezeichnet. Somit ist dann doch wieder eine zentrale Instanz notwendig, die alle Telefone koordiniert.
  • ISDN ist ein „richtiger“ Standard, in europäischen (ETSI) und internationalen (ITU-T / CCITT) Normen festgeschrieben, manche Dokumente mögen nicht einmal öffentlich zugänglich sein. Es mag sicher so sein, dass die RFCs fürs TCP, UDP, IP und SIP sich viel leichter lesen und auch deutlich kompakter sind. Aber die Praxis zeigt: RFCs so zu implementieren, dass die eigene Implementierung problemlos mit den Implementierungen aller anderen zusammen arbeitet, ist extrem aufwändig. Oft wird der TCP/IP-Stack als hervorragendes Beispiel für diese einfachen und einfach verständlichen „Standards“ zitiert. Die Realität zeigt jedoch: man nimmt entweder eine „Standard-Implementierung“, die bereits millionenfach im Einsatz ist, oder man muss viel Zeit und Arbeit investieren, um Fehler in der eigenen Implementierung zu beheben oder Ausnahmebehandlungen zu implementieren, um mit den fehlerhaften Implementierungen anderer Endpunkte zusammenarbeiten zu können (siehe https://news.ycombinator.com/item?id=12021195). Ähnlich sieht es bei SIP aus. Es gibt viele Ungenauigkeiten und Wahlmöglichkeiten, sodass die Interoperalität zwischen Systemen verschiedener Hersteller kaum zu gewährleisten ist. Das ging sogar so weit, dass sich das SIP Forum zusammengefunden hat, um ein genauere Regeln festzulegen, wie SIP gesprochen werden soll (SIPConnect).

Die Telekom schreitet voran mit dem Rückbau von ISDN. Aus ihrer Sicht ist das grundsätzlich nachvollziehbar, denn es gilt, veraltete Gerätschaften und eine doppelte Infrastruktur abzuschaffen. Auf Seiten der Kunden sieht es jedoch anders aus. Im Telefonanlagen-Markt waren Amtsanbindungen per ISDN absolut Stand der Technik, und aufgrund der Unzulänglichkeiten von SIP-Anschlüssen, gepaart mit der Tatsache, dass insbesondere die Telekom erst sehr spät eigene Produkte auf den Markt gebracht hat, hatten Kunden wenig Anreize für die Umstellung. Wie der eingangs verlinkte Artikel zeigt, wird mit dem Abschalten von ISDN-Anschlüssen nicht einmal Halt gemacht, wenn keine adäquaten Alternativen zur Verfügung stehen und Kunden sogar Produkte empfohlen, die technisch am Standort nicht realisierbar sind.

Darüber hinaus, ich erwähnte es, wurde ISDN schon immer für mehr als telefonieren genutzt. Das betrifft insbesondere die Kommunikation von Geräten, die zur kritischen Infrastruktur zählen. Pumpstationen, Aufzugnotruf-Anlagen und insbesondere Brandmeldeanlagen mit Feuerwehr-Aufschaltung sind Systeme, die sich seit Jahrzehnten auf etwas verlassen, das dass neue Netz so nicht mehr bietet: Garantien und ein hohes Maß an Dienstgüte.

Für Brandmeldeanlagen genügte in den meisten Fällen, die Alarmaufschaltung der Feuerwehr über einen ISDN-Anschluss zu realisieren, der von Bosch oder Siemens überwacht wurde. Mit der Umstellung auf VoIP gibt es keine vergleichbaren Alternativen und es werden meistens mindestens (!) zwei Kommunikationswege für die Anlage vorgeschrieben.

Das ISDN ist ausgelegt auf eine Verfügbarkeit von 99,99999% im Jahresmittel. Mit der Umstellung auf einen neuen AllIP-Vertrag akzeptiert jeder Telekom-Kunde (egal ob Privat- oder Geschäftskunde!) eine Verfügbarkeit von 97%. Das bedeutet eine Verschlechterung von „Ausfall <1 Min./Jahr“ auf „über 10 Tage/Jahr ist OK“.
Mit anderen Worten: Ein Anschluss kann jedes Jahr 10 Tage am Stück ausfallen, und man darf dann noch nicht einmal von einer Störung sprechen.
Oder, um es so auszudrücken: unser Kommunikationsnetz wurde mit der Modernisierung von der höchsten Klasse von Hochverfügbarkeit zur Nicht-Hochverfügbarkeit deklassiert (vgl. https://de.wikipedia.org/wiki/Hochverfügbarkeit).

Wann immer ich Vorteile von ISDN erwähne, bekomme ich zu hören „ISDN ist alt und überholt, deswegen gehört es abgeschafft.“ Sicherlich enthält der Standard vieles, das heute nicht mehr benötigt wird. Dennoch tut sich SIP bis heute schwer daran, überhaupt den Leistungsumfang zu erreichen, den ISDN schon Jahrzehnte hatte, von „neuen Features“ ganz zu schweigen. Ich könnte mich damit eher abfinden, wenn nun alles an Telefonie grundsätzlich über SIP abgewickelt wird, und alte Zöpfe abgeschnitten werden, und vor allem ein ähnlich hohes Verfügbarkeitsmaß realisiert wird. Stattdessen macht man aber – wie bei der Einführung von ISDN – abermals den Fehler, und setzt als Alternative auf „POTS“, also der schnöden analogen Telefonie von der Jahrhundertwende. Diese bringt meiner Ansicht nach ein paar ganz entscheidende Nachteile mit, von denen besonders die Menschen betroffen sind, die „einfach nur telefonieren“ wollen.

Das Problem mit Oma Finchen

Lange Zeit hieß es, die wenigen Kunden, die ausschließlich telefonieren wollen, bekämen dann eben trotzdem einen DSL-Anschluss und Router. Das Problem mit „Oma Finchen„, also insbesondere älteren Menschen, die wirklich einfach nur telefonieren wollen und absolut nicht in der Lage sind, einen Internetrouter zu konfigurieren oder zu warte, wurde dann aber doch so groß, dass man hier einen alternativen Weg ging.

Die Geräte in den Multifunktionsgehäusen, die aus Glasfaser die VDSL-Anschlüsse machen, heißen MSAN (=Multi Service Access Node). Diese Geräte werden mit Glasfaser versorgt und können unterschiedliche Dienste anbieten, indem man sie mit sog. Linecards bestückt. Neben dem Standardfall, VDSL-Linecards, setzt z. B. die Telekom nun auch POTS-Linecards ein, also Baugruppen, die einen klassischen analogen Telefonanschluss zum Kunden liefern können. Was aber verschwiegen wird: die Hersteller dieser MSANs bieten neben DSL und POTS auch Linecards für ISDN an. Mit anderen Worten: auch nach der Abschaltung des ISDN könnten die Provider über diesen Weg weiterhin, über die moderne Kerninfrastruktur, ISDN zum Endkunden liefern.

Das wäre nicht nur für Geschäftskunden gut, die mit ihrer TK-Anlage einfach nur telefonieren wollen, und deren Verkabelungssituation eine moderne IP-Telefonanlage ggf. überhaupt nicht zulässt oder die mangels entsprechender Internetanbindung (siehe oben) weder VoIP noch Cloud-Telefonie nutzen können.

Auch „Oma Finchen“ könnte hiervon profitieren, denn POTS hat ein paar entscheidende Nachteile gegenüber ISDN:

  • Wir wissen, dass ältere Menschen möglichst lang noch zu Hause wohnen möchten und dies eigentlich auch müssen, da Pflegeheim-Kapazitäten im Hinblick auf die immer älter werdende Bevölkerung dem nicht gewachsen sind. Dabei ist gerade die telefonische Erreichbarkeit sehr wichtig.
  • Seit Jahren sind Systeme wie Hausnotruf etabliert. Sei es der „richtige“ Hausnotruf mit Alarmierung eines Pflegedienstes, mittlerweile gibt es aber auch ähnliche Lösungen, die auf Knopfdruck oder bei Ereignissen wie Umfallen voreingestellte Rufnummern (Verwandte, Nachbarn, etc.) anrufen können.
  • Ältere Menschen können dazu neigen, Telefonhörer nicht richtig aufzulegen, Mobilteile nicht auf die Ladeschale zu stellen, oder, bei Ende des Telefonats den „Auflegen“-Taster nicht zu drücken.

Es gibt diverse Möglichkeiten, die dazu führen, dass der Leitungszustand „abgehoben“ bleibt. Man kann denjenigen nicht anrufen, da bei POTS die Leitung nicht getrennt werden kann. Anders ist das bei ISDN, hier gibt es eine gesicherte Signalisierung: legt der Gesprächspartner auf, weiß auch das eigene Endgerät durch eine Mitteilung der Vermittlungsstelle, dass das Gespräch beendet ist und „legt auf“, ähnlich wie das bei einem Handy der Fall ist. Der Teilnehmer ist also wieder erreichbar. Doch selbst wenn eine Leitung belegt ist, kann der 2. B-Kanal hier Abhilfe schaffen und man kann trotzdem noch anrufen.

Das absurde daran ist: Über ISDN sagt man, es sei veraltet und müsse deswegen abgeschafft werden, den Telefonanschlusstyp aus dem 19. Jahrhundert hält man aber am Leben.
Wie gesagt: die Abschaffung von alter ISDN-Vermittlungstechnik ist kein Grund, dem Kunden nicht weiter ISDN als Anschlusstyp liefern zu können; dann müssten sich die Kunden nicht zahlreiche neue Telefonanlagen oder ISDN-Gateways kaufen/mieten. Ein Schelm, wer Böses dabei denkt…

Praktische Probleme durch Abschaffung des Parallelnetzes

Mit den MSANs gibt es dann jetzt also wieder „alles über ein Netz“. Moderner als das alte soll es sein, und besser. Ich sehe jedoch nur immer wieder die Zahl von 10 Tagen, die mein Anschluss jedes Jahr kaputt sein darf, ohne dass ich einen Grund habe, mich zu beschweren. Und ich sehe Logs diverser Router, die immer mal wieder nachts, teilweise mehrfach, neu synchronisieren. Und man darf an der Stelle nicht vergessen, dass DSL erfordert, dass beide Gegenstellen erst ermitteln müssen, welche Frequenzen auf der Leitung genügend Potential zur Datenübertragung bieten, bevor Datenübertragung möglich ist. Je nach Leitungsqualität kann ein Synchronisationsvorgang Minuten dauern.

In den Jahren, in denen ich mit ISDN-Amtsanschlüssen gearbeitet habe, dauert es nach dem Anschluss in der Regel wenige Sekunden, bis ein Anschluss nutzbar ist. Hier gibt es keine Passwörter, keine „Provisionierung“, kein Webinterface, kein DHCP, kein Firmwareupdate, nichts. Einfach einstecken und sofort erreichbar sein.
Und heute? Tja, blinkt das DSL-Lämpchen am Router, geht nichts mehr, man ist auf das Handy angewiesen, das wie selbstverständlich vorausgesetzt wird, bzw. direkt das Smartphone, damit man die Störungsmeldung über das Onlineportal abwickeln kann.
Doch was, wenn aus Rationalisierungsgründen VoIP/DSL und Mobilfunk dieselbe Infrastruktur nutzen und beides gleichzeitig ausfällt (auch das habe ich schon erlebt)?
Spricht man das Thema Notruf an, heißt es „Wenn der Festnetzanschluss gestört ist, nehmen Sie doch einfach Ihr Handy für den Notruf“. Tja, das muss wohl die Zukunft sein, von der immer alle reden. Und großflächige Ausfälle sind kein Hirngespinst, sondern bereits Realität geworden. Allein im Juli 2019 gab es in Hessen eine großflächige Störung, durch die 110 und 112 über Stunden nicht erreichbar waren.

Fazit

Das war jetzt eine ganze Menge Text, daher möchte ich die Kernaussagen einmal zusammenfassen, wie ich die gegenwärtige Entwicklung sehe bzw. was mich daran stört:

  • ISDN wird abgeschafft, am meisten Vorteile, v.a. Einsparungen, haben jedoch die Provider.
  • ISDN wird als veraltet und überholt abgetan. SIP ist heute noch nicht auf dem Stand, auf dem ISDN schon immer war, und wird es so schnell auch nicht werden.
    • Zeitgleich hält man aber den analogen Telefoniestandard am Leben, der in der Praxis nochmal deutliche Nachteile mit sich bringt
    • Es ist technisch machbar, den ISDN als Anschlusstyp weiterhin anzubieten, das wird aber nicht gemacht.
  • VoIP wird in den Markt gedrückt, aber viele Vorteile, die von VoIP/SIP beworben werden, treffen in der Praxis nicht oder eingeschränkt zu
  • Die Umstellung geschieht mit seinem so hohen Druck, dass die alten Strukturen abgebaut werden, selbst wenn die neue Infrastruktur nicht zur Verfügung steht. Die Leidtragenden sind auch hier wieder die Kunden.
  • Generell gibt es einen enormen Rückschritt in Sachen der Ausfallsicherheit unseres Kommunikationsnetzes, der verschwiegen wird. Es ergeben sich zusätzliche Aufwände und Kosten für Kunden und ungelöste Probleme werden tot geschwiegen („Wenn das Festnetz nicht geht, dann nehmen Sie doch einfach ihr Handy.“)
Veröffentlicht unter Allgemein | Verschlagwortet mit , , , , , , | Ein Kommentar

Telefonanlage mit Asterisk 13 und PJSIP

In diesem Artikel habe ich das große Ganze zu meiner Heiminstallation mit Asterisk 13 und auf Raspberry Pi-Basis erläutert.
Es war nicht ganz leicht, PJSIP zu konfigurieren, da es im Internet kaum Einrichtungsbeispiele für PJSIP-Installationen gibt (zumindest deutlich weniger als für chan_sip), insbesondere gab es nichts, was auf die Spezialitäten für den Telekom AllIP-Anschluss eingeht und über die Verwendung von pjsip_wizard.conf konnte ich in diesem Zusammenhang garnichts finden.
Daher stelle ich in diesem Artikel die Konfiguration meines Asterisk vor und gehe auf ein paar Herausforderungen ein, die sich durch die Umstellung von chan_sip ergeben haben.

Mein Dank geht an Jürgen Büssert und Dr. Martin Rother, die ebenfalls Einblick in die Dokumentation ihrer „Asteriskse“ geben.

Weiterlesen

Veröffentlicht unter A geek's life, Telefon & Co | Ein Kommentar

Heim-Server auf Raspberry Pi mit Asterisk, fhem, LDAP und davical

Vorgeschichte

Als ich vor ein paar Jahren meine jetzige Wohnung bezog, hatte ich eigentlich vor, ISDN als Amtsanschluss zu buchen und mir eine kleine HiPath-Telefonanlage zu installieren.
Es stellte sich heraus, dass ADSL-mäßig in der Wohngegend aber wohl alles ziemlich dicht ist, dafür ist aber VDSL verfügbar. Damit fiel ISDN als Option weg, da mir schnelles und stabiles Internet wichtig ist.

Ich habe dann zunächst zwei DECT-Mobilteile an die bereits vorhandene Fritzbox angemeldet um das Thema „Telefonie“ in Ruhe neu bewerten zu können.
Eine konventionelle Telefonanlage bietet zwar viele Funktionen was Rufverteilung, Berechtigungen, etc. angeht, aber es ist schwierig, die Außenwelt anzubinden, z. B. mit selbst geschriebener Software.
Meist sind dazu zusätzliche (auf Windows basierende) Server und (teure) Lizenzen notwendig, was ich weder aus Kostengründen noch aus Energiegründen für sinnvoll hielt.
Die sonstigen Funktionen werden auch nicht benötigt, denn in der Regel wird eine Telefonnummer genutzt, bei der alle (aktuell vier) Telefone klingeln.

Dazu kommt, dass man bei den HiPath-Anlagen zur Wartung immer die Windows-Software Manager C bzw. Manager E benötigt, selbst, um Telefonbucheinträge zu verwalten. Das ist ungünstig in einem Haushalt, in dem keine Windows-PCs vorhanden sind.

Ein möglichst einfach zu administrierendes Anlagentelefonbuch war mir wichtig. Die HiPath kann zwar LDAP, aber nur als Namensauflösung für eingehende Rufe.

Bei Asterisk, das wusste ich aus vorhergehenden Projekten, kann man sehr einfach diverse Dinge steuern.

Eine konventionelle TK-Anlage schied also aus, auch die Fritzbox erwies sich alsbald als ungenügend für meine Ansprüche. Die Details führe ich hier mal nicht aus, bei Interesse kann ich dazu mal noch einen eigenen Artikel spendieren.
Ich nahm also einen Raspberry Pi (ursprünglich Model B, heute Version 3) und Raspbian als Basis.
Der Raspberry Pi regelt die Telefonie, Zusatzdienste zur Telefonie, Telefonbuch, Kalender und auch Heimautomation.
Wenn jemand an zusätzlichen Details interessiert ist: einfach melden!

Folgende Dienste sind im Einzelnen realisiert:

Asterisk

In der Installation sollen folgende Endgeräte unterstützt werden:

  • SIP-Tischtelefone
  • DECT-Mobilteile
  • Fax (für alle Fälle)
  • POTS

Die Fritzbox wird dazu als Gateway missbraucht: Fax und ein analoges Wandtelefon sind an die a/b-Ports angeschlossen und in der Fritzbox sind „Internet-Rufnummern“ eingerichtet, die sich am lokalen Asterisk registrieren. Die SIP-Tischtelefone (bei mir z. B. Snom 370 und 720) registrieren sich direkt am Asterisk.
Da alle Telefone auf der „einen Seite“ der Wohnung sind, hört man sie schlecht, wenn man sich in einem der anderen Räume aufhält, daher gibts das Siemens Miniset 325 im Flur.
Auch die DECT-Mobilteile sind (zur Zeit noch) an der Fritzbox angemeldet. Ich habe mich für Gigaset SL3 professional entschieden. Diese Geräte bieten einen guten Kompromiss, da sie an verschiedenen HiPath-Telefonanlagen als Systemmobilteil funktionieren, gleichzeitig aber auch an der Fritzbox ein Anlagenmenü bekommen.
Demnächst (Gigaset N510 IP Pro), damit soll das alles besser funktionieren, man hat dann auch nicht die 3 Gedenksekunden als Wahlende-Erkennung.

Mit dem Umstieg auf den Raspberry Pi 3 habe ich das System komplett neu und damit auch auf aktuellsten Versionen aufgesetzt. Bei Asterisk entschied ich mich für die aktuelle LTS-Version, also Version 13. Bei Asterisk ist derzeit die Migration vom aktuellen SIP-Channeldriver chan_sip zu PJSIP im Gange. Ich entschied mich dafür, gleich für die Zukunft gerüstet zu sein und den neuen Stack zu verwenden. Da ich im Internet keine Einrichtungsbeispiele für mein Setup finden konnte, habe ich die Konfiguration meines Asterisk in einem separaten Beitrag dokumentiert.

LDAP

Alle Telefone sollen auf dasselbe, einfach zu administrierende Telefonbuch zugreifen können. Auf dem Raspberry Pi läuft daher ein handelsüblicher OpenLDAP-Server. Für die Administration des Telefonbuchs nutze ich den Teil eines Skripts, das ich im IP-Phone-Forum gefunden habe. Dieses Skript stellt ein Telefonbuch für Cisco-Telefone zur Verfügung und nutzt dafür eine Möglichkeit, das Telefonbuch der Fritzbox als XML zu laden. Das mache ich mir zunutze: ich lade das Telefonbuch per Cronjob runter, konvertiere es per XSLT in LDIF und beschicke damit den LDAP-Server. So haben alle das gleiche Telefonbuch und ich kann es bequem mit dem Webinterface der Fritzbox administrieren.

FHEM

Unsere Waschmaschine steht in einem Gemeinschafts-Waschkeller. Der Strom wird über die einzelnen Haushalte über einen sogenannten Haushaltsumschalter geschaltet, das heißt, es kann immer nur ein Haushalt gleichzeitig waschen. Das führt dazu, dass die Möglichkeit zur Nutzung der Waschmaschine immer nur zeitweise gegeben ist. Dazu kommt, dass die Waschmaschine zwar eine Restzeitanzeige besitzt, die aber eher ein Schätzeisen ist. Was sie besonders gut kann: 7 Minuten als Restzeit anzeigen, die dann über 30 Minuten dauern. Somit besteht großes Interesse, genau dann mitzubekommen, wenn die Waschmaschine fertig ist.
Ich habe hier eine elegante und minimalinvasive Lösung auf der Basis von Homematic-Komponenten und dem freien Heimautomationsserver fhem gefunden.
Dazu wird eine Funksteckdose Homematic 130248 eingesetzt, die eine eingebaute Leistungsmessung hat. Der Regelkreis ist einfach: wird über 50W verbraucht, wird eine Zustandsvariable auf „ON“ gesetzt. Wird länger als 5 Minuten weniger als 5W verbraucht, wird der Zustand auf „OFF“ gesetzt und eine Push-Nachricht aufs Handy geschickt, über das offene Framework „Pushover“.
Ich habe das dann erweitert und lasse auf einem Snom-Telefon ein Bild anzeigen und eine Taste fängt an zu blinken.

Davical

Schließlich entstand auch die Notwendigkeit gemeinsamer Kalender. Diese sollten „cloudlos“ umgesetzt werden. Somit wurde ein einfacher davical-Server installiert. Wann immer ein Gerät im heimischen WLAN eingebucht ist, erfolgt eine Synchronisierung.

Veröffentlicht unter Allgemein | Ein Kommentar

Alte Telefonanlagen um moderne Funktionen erweitern

In vorigen Einträgen habe ich ja schon etwas dazu geschrieben, dass ich heute durchaus einen Sinn in der Zweidrahtschnittstelle sehe.
Es mag also sein, dass man noch eine ältere TK-Anlage aus gutem Grund betreibt, sei es, weil eine flächendeckende Versorgung mit Endgeräten (und sogar auch DECT-Kanalelementen) sehr kostengünstig möglich ist.
Dass das Telefonnetz auf VoIP umgestellt wird, ist Realität. In einem vorigen Eintrag habe ich ja bereits auf die Möglichkeit hingewiesen, dass man eine Amtsanbindung erreichen kann, indem man sich ein ISDN-SIP-Gateway mittels Asterisk baut.
Wenn man diesen Weg eingeschlagen hat, hat man die volle Kontrolle nicht nur über ein Asterisk, sondern über die in einem Computer verbauten ISDN-Karten auch einen relativ flexiblen Zugang zur TK-Anlage.
Ich dokumentiere hier einmal, welche Funktionen ich selbst in einer solchen Installation umgesetzt habe. Weiterlesen

Veröffentlicht unter Telefon & Co | Ein Kommentar