O du schöne Zweidraht-Welt — Resterampe oder Renaissance?

Klappentext

Die Kommunikationswelt befindet sich im Wandel. In wenigen Jahren wird ISDN als Kommunikationsanschluss für Jedermann Geschichte sein, die Umrüstung auf ein IP-basiertes Telefonnetz schreitet voran. Die Omnipräsenz von Smartphones, die steigende Verbreitung von WLAN-Routern mit integrierten Telefoniefunktionen und die Möglichkeit von „Allnet-Flats“ sowie die immer besser werdende Mobilfunkabdeckung stellen die Konzept „Telefonanlage“ „Tischtelefon“ infrage. Doch wird bei diesen Trends nicht etwas übersehen?
Ich bin – kurz gesagt – unzufrieden mit der aktuellen Situation und versuche, mit diesem Artikel darzustellen, woher wir kommen, wo wir stehen und wohin die Entwicklung gehen könnte. In einem zweiten Artikel beschreibe ich, wie man die Situation meiner Ansicht nach verbessern könnte.

Von Vieldraht zu Zweidraht, von Telefon zu Systemtelefon

Mit der Einführung von ISDN und rechnergesteuerten TK-Anlagen wurden diese massentauglich. Wo zu analogen Zeiten Abfrageplätze noch Schuhkarton-große Anschaltgeräte und daumendicke Kabel zur Anbindung an die Anlage brauchten und Telefonanlagen selbst für kleine zweistellige Nebenstellenanzahlen ohne nennenswerte Systemfunktionen mehrere Schränke füllten, gibt es seit Mitte der 1990er Jahre TK-Anlagen, die in der Lage sind, jeden Teilnehmer mit einem Systemtelefon zu versorgen. Modernere Anlagen wie die Bosch Integral 3 bieten wiederum auf Schuhkartongröße eine komplette TK-Anlage.
Durch ISDN und die Einführung der Übertragungsschnittstellen S0 und der zweiadrigen Variante Up0 wurde vor Allem eines Standard: der einpaarige Teilnehmeranschluss. Telefone brauchten keine separate Spannungsversorgung: alles kommt aus der Anlage. Nach Belieben kann der Teilnehmer mit einem Port für ein Systemtelefon, a/b, DECT-Kanalelement oder – dann natürlich mit 2 Paaren – S0 versorgt werden.

Ethernet: Fortschritt durch Komplexität?

Nun, Ethernet und IP-basierende Netze außerhalb der Rechnerkommunikation zu verwenden ist die Zukunft, oder eher schon die Gegenwart. In der Regel werden Neubauten mit strukturierter Verkabelung ausgerüstet, Gebäude untereinander und tlw. sogar Etagen innerhalb desselben Gebäudes mit Glasfaser statt Kupfer verbunden. Die strukturierte Verkabelung klingt sinnvoll und Flexibilität ist das Verkaufsargument Nr. 1, aber wohin führt sie?
Sieht man der Realität ins Auge, sind vor allem bei großen Installationen die wenigsten Telefone diejenigen, die z. B. aufgrund des benötigten Datendurchsatzes einen Ethernetanschluss wirklich benötigen.
Die meisten Telefone haben S/W-Displays, teilweise nicht einmal Vollmatrix-Displays, oder – noch absurder – weder Display noch Funktionstasten.

In Summe wird mehr Kupfer benötigt. Pro Netzwerkport werden 8 Kupferadern verlegt. Bei der sog. TDM-Technik, also dem zweiadrigen Anschluss wie bei Up0, ließen sich mit 8 Adern 4 Up0-Ports realisieren. Siemens mit der Master/Slave-Schaltung bietet sogar die Möglichkeit, an einem Systemtelefon noch ein weiteres zu betreiben. Also 8 Systemtelefone ohne separate Spannungsversorgung an einem Netzwerkkabel.
Bei IP bieten manche IP-Telefone einen integrierten 1-Port-Switch, aber für ein zweites Endgerät wird dann direkt ein PoE-Injektor zur Spannungsversorgung fällig.

PoE-Injektoren und -Switches bringen zusätzliche Komplexität in die Installation, vor allem die Frage nach Notstromfähigkeit wird so komplexer.

IP-Telefone bringen aber auch mehr Komplexität an einer anderen Stelle: Der überwiegende Teil der IP-Telefone basiert auf einem eingebetteten Linux. Meist bieten sie ein Webinterface.

Aber was bedeutet das? In jedem Tischtelefon läuft ein general-purpose-Betriebssystem, bestehend aus etlichen Komponenten und Bibliotheken, basierend auf einem lediglich an die Prozessorarchitektur angepassten Linux-Kernel bishin zum Webserver, mit allen Problemen und (Sicherheits-)Schwachstellen.
Das ist einigermaßen verschmerzbar, wenn die zusätzliche Leistungsfähigkeit auch genutzt wird, zum Beispiel indem das Telefon in der Lage ist, dem Nutzer Daten aus dem Unternehmensnetz oder Internet anzuzeigen, Videostreams von Kameras abzuspielen, etc. Geräte wie das Grandstream GXV3275 nutzen das Potential direkt aus und eignen sich zusätzlich als WLAN-Router und Thinclient.

Doch die Realität zeigt: Anbindung externer Dienste an die VoIP-Telefone von TK-Anlagen sind meist komplex realisiert, es werden oftmals zusätzliche Server benötigt (die also genauso gut in der Lage wären, bspw. Webseiten in ein spezielles Format für Nicht-VoIP-Telefone zu wandeln) und im handelsüblichen Büro gibt es meist 2 Endgeräte dieser Klasse: das der Sekretärin und das vom Chef.

Zweidraht-Telefonie: Sackgasse oder Chance?

Systemtelefone auf Zweidraht-Basis (im Folgenden Up0) wirken mittlerweile wie ein verstoßenes Kind: praktisch kein TK-Anlagen-Hersteller betreibt hier noch Entwicklung. Aus Herstellersicht ist der Schritt leicht erklärt: Up0 ist eine Nische. Die Schnittstellenbausteine, die Entwicklung auf dieser Technologie, die Entwicklung dedizierter Telefon-Endgeräte, diese Felder erfordern spezielles Wissen, sind also teuer. Ethernet-Technologie und Linux-SoCs gibt es wie Sand am Meer und Entwicklung lässt sich billig einkaufen. Ob das System eine Webcam betreibt oder ein Telefon: die grundsätzliche Architektur und die Betriebssystembasis sind idR gleich.
Dabei müsste das garnicht so sein und es geht auch durchaus anders: vxWorks und QNX sind nur zwei Beispiele für sogar echtzeitfähige Betriebssysteme, die speziell auf eingebettete Systeme ausgerichtet sind und bspw. Alcatel hat für eine Serie ihrer IP-Telefone auf vxWorks gesetzt. Der Vorteil ist zum Beispiel eine erheblich kürzere Bootzeit. Aber auch die Kompetenzen werden vielleicht etwas sinnvoller verteilt und jeder macht das, was er gut kann: Der TK-Anlagenhersteller entwickelt und wartet eine Applikation für die Telefonie und überlässt die Wartung eines Betriebssystems jemandem, der Profi in diesem Bereich ist — und sich vor allem auch um die Sicherheit dieses Systems und Bereitstellung von Sicherheitsupdates kümmert.
Wirklich schön ist nämlich nicht, denn wenn der Hersteller spart, muss es der Kunde ausbaden:
Nicht jeder Kunde für eine TK-Anlage ist das Standard-Büro aus der Katalogwelt. Nicht jedes Gebäude verfügt über strukturierte Verkabelung. Und wenn eine Bestandsverkabelung vorhanden ist und bei 99% der Teilnehmer die einzige Anforderung „Telefonieren“ ist, warum dann so viel Komplexität ins Haus holen?
Zumal es mittlerweile so scheint, als sei jedes Linux-basierende Endgerät eine potentielle Gefahr für das Intra- oder Internet: ein Buffer Overflow hier, eine unzureichende Zertifikatsüberprüfung da und schon hat man 100 kleine Agenten auf den Schreibtischen stehen, die nach Belieben Telefonate abhören, mitschneiden können oder auch andere Geräte im Netzwerk angreifen oder aushorchen. Selbst Geräte bei denen man es als unbedarfter Nutzer nicht für möglich hält, wie zum Beispiel Drucker, sind so eine Gefahr.
Das wird durch den Trend „Internet of Things“ wird das gerade nochmal potenziert, und das Grundproblem fasst dieser Tweet schön zusammen.
Bestes Beispiel dafür, welche Gefahr davon ausgeht, ist der DDoS-Angriff auf Dyn im Okt. 2016, der von „Geräten im IoT-Bereich“ ausging. Überhaupt ist mangelnde Sicherheit (meist stammend von schlechter Upgradepolitik) eines der größten (ungelösten) Probleme dieser Geräteklasse.
Und werden Schwachstellen bekannt, hat der Kunde nicht einmal die Möglichkeit, diese zu beheben sondern ist darauf angewiesen, dass der Hersteller reagiert. Der hat aber vielleicht kein Interesse daran, zum Beispiel weil der Kunde seit 2 Jahren kein neues Softwarerelase für seine Anlage gekauft und somit sein „Recht“ auf Firmwareupdates verwirkt hat, oder weil die Endgeräte einfach generell „End of life“ sind. So wird dann ein Gerät, das noch sämtlichen Anforderungen gerecht wird und das man garnicht austauschen möchte, zum Sicherheitsrisiko.
Es ist auch aus ökologischer Sicht unverantwortlich, auf diese Weise den Neukauf von Geräten zu erzwingen, ohne dass der Kunde echten Mehrwert benötigt, aber die aktuellen ein akutes Sicherheitsrisiko darstellen.

Dazu kommt: bei den meisten Herstellern besitzt das Systemtelefon, was die Teilnahme am Systembetrieb angeht, wenig eigene Intelligenz. Displayinhalte, Funktionen der Funktionstasten, alles wird in der Anlage generiert. Über mehrere Generationen ist die Hardware und ihr direkter Funktionsumfang sogar praktisch gleich geblieben. Beispiel Siemens: Optiset E, Optipoint 500-Serie, OpenStage TDM-Serie. Es gibt funktional kaum Innovationen (Display-Hintergrundbeleuchtung, Displaytechnologie, Anzahl und Art der Funktionstasten), über Generationen hinweg. Dafür aber stetige Einsparungen im Produktionsaufwand, auf Kosten der Langlebigkeit der Geräte, wie zum Beispiel die Bevorzugung von bedruckten Gummitastaturen gegenüber Kunststoffeinsätzen wie beim Optiset E.
Wenn es auch leichte Veränderungen gab; „moderne“ Anwendungen werden tendenziell dazu genutzt, IP-Endgeräte zu verkaufen, obwohl z. B. die OpenStage 40-TDM-Geräte mit ihren Vollgrafik-Displays für eine ausgefeilte Interaktion mit dem Nutzer geeignet wären.
Obwohl ISDN grundsätzlich bereits HD-Audio, z. B. mit dem Codec G.722, auch als „7 kHz-Telefonie“ bezeichnet, unterstützt, ist mir keine TK-Anlage bekannt, die das am Systemtelefon unterstützt.
Leider wurde bei der Verbreitung von ISDN versäumt, dies als Alleinstellungsmerkmal prominenter zu platzieren und Telefonie mit 3,1 kHz Bandbreite als „alt“ zu vermarkten.
Ggf. wäre es also möglich, auch hier durch vergleichbar wenig Änderungen an den Geräten eine deutliche Qualitätsverbesserung im Telefonieren herbeizuführen.
Aber letztendlich: das Systemtelefon ist in den meisten Fällen ein Terminal, und so sollte es generell möglich sein, auch funktionalen Mehrwehrt durch ausgefeiltere Software zu ermöglichen.

Telefon: quo vadis?

Die Kommunikationswelt verändert sich. Nicht nur Mobiltelefone sind omnipräsent, sondern Smartphones sind ebenfalls als allgegenwärtig anzusehen, „Jeder“ hat eins und in der Regel auch eine Anbindung an schnelle mobile Datennetze. Das Telefonat verliert jedoch an Bedeutung.
Ein Faktor mag sein, dass gerade bei günstigen Angeboten zwar in irgendeine Form Flatrates für mobiles Internet enthalten sind, Telefonate aber in der Regel Geld kosten – eine Allnet-Flat ist teuer. Zudem fördern soziale Netze die Affinität zum Schreiben kurzer Nachrichten gegenüber von Telefonaten.
Es fühlt sich leichtgewichtiger an, „mal eben“ eine Nachricht zu tippen statt sich Zeit für ein Telefonat zu nehmen.
Für verschiedene Anwendungsfälle mag das stimmen, zum Beispiel für das Übermitteln von Statusinformationen, gerade an eine Gruppe. Viele schätzen als Vorteil, dass es ein „Log“ gibt und man somit immer nachvollziehen kann, was besprochen wurde.

Fakt ist aber: diese Plattformen versagen sämtlichst daran, dies in archivierfähiger Weise zu tun.
Zunächst einmal sind alle „öffentlichen“ Plattformen von privaten Dienstleistern abhängig (Twitter, Slack, Facebook, Snapchat, WhatsApp, etc.). Privates und Geschäftliches ist nicht getrennt und vor Allem bedeutet „Konversation“ in der Regel, dass Nachrichten als quasi-endloser Strom von Nachrichten dargestellt werden und es kaum sinnvolle Suchmöglichkeiten gibt.

Das Schreiben von Textnachrichten fühlt sich leichtgewichtiger an, aber oft löst ein kurzes Gespräch Probleme deutlich effizienter. Meiner Ansicht nach ist es sinnvoller, beide Parteien nehmen sich vielleicht 2 Minuten Zeit, einen Sachverhalt bei voller Aufmerksamkeit zu klären, statt über 10 Minuten immer wieder Nachrichten auszutauschen, und somit bei keiner Sache voll dabei zu sein. Dann doch lieber eine Diskussionskultur pflegen bzw. wieder aufbauen, indem man am Ende eines Telefonats das Ergebnis zusammenfasst, falls es archivierungswürdig ist, oder das Gespräch oder Teile davon direkt von der TK-Anlage archivieren lässt.

Innerhalb von Ansätzen wie „Bring your own device“ gibt es ja auch Bestrebungen, komplett auf hausinterne Telefonie zu verzichten, den Mitarbeitern ggf. Handy-Verträge zu bezahlen und komplett mit Mobiltelefonie zu arbeiten. Ich sehe aber das Telefon eher als Teil der Infrastruktur des Ortes, an dem mich gerade befinde. Warum soll ich z.B. die Intelligenz, Licht und Heizung meines Arbeitsplatzes zu steuern, mit mir herum tragen?
Warum muss ich selbst Telefonnummern von etlichen Mitarbeitern verwalten, wenn diese Informationen zentral vorgehalten werden können, ich statt konkreten Personen „Dienststellungen“ („Das Lager“, „Der Empfang“,…) anrufen kann und diese mit zusätzlichen Metadaten versehen sein können (Empfang anrufen, Fr. Müller aktuell im Urlaub, vertreten durch Hrn. Maier)?
Warum muss ich mein Smartphone aus der Hosentasche holen, am Rechner zum millionsten Mal „Wetter Köln heute“ bei Google eingeben, wenn genau diese Informationen auf einem Gerät präsentiert werden können, das sowieso auf meinem Schreibtisch steht?
Was spricht also dagegen, das Tischtelefon als „Begleiter“ zu erfassen? Welche konkreten Funktionen dieses Gerät erfüllen soll, überlegt man sich ein Mal, und dabei kann es auch bleiben. Diese Funktionen erfüllt es dann immer, es gibt keine „Apps“, die man schließen oder extra öffnen muss. Somit bleiben Smartphone und PC frei von Onlineverläufen, Aktivitäten meiner Chatpartner und Telefonate auf anderen Leitungen.

Die derzeiten Lösungen auf dem „freien Markt“ reichen hier noch längst nicht aus, hier ist noch viel Arbeit für eine durchgängige Interoperabilität zu leisten. Es ist zum Beispiel naheliegend, dass ein Mitarbeiter ein laufendes Gespräch vom Handy aufs Tischtelefon weiterreichen möchte, wenn er von einem Außentermin zurückkommt.

Dear Linux…

Dear Linux,
living with you has become hard.

To start with, I use a current ThinkPad and the latest Ubuntu Linux LTS.
Up to now, the things I have to do occasionally so I can do my daily work:
1) Restart network-manager after wakeup because WiFi looks like it works but it doesn’t
2) Kill unity-panel-service at least every ~1,5 day because it continuously eats system resources (I once catched it claiming 8 gigs of RAM)
3) After issuing a print job, open print queue GUI manually because otherwise the print job isn’t really started

Moreover, I am forced to run a beta-kernel, because, using the official kernel, standby after undocking suddenly got broken. And, since day one of using this system, there is the issue of laggy audio output which needs some seconds until audio is played and permanently blocks the whole application having sound output for several seconds.
As a side note: whilst running Windows 7 on the same machine, none of this issues is present.

Apart from that, I constantly face minor and major issues concerning the applications themselves, also interfering my daily work. For example when working on publications, I am forced to use up to four different tools, because a graphic tool doing sophisticated vector drawings, diagrams and graphs at one go simply doesn’t exist. Additional overhead is caused because there is no proper interoperability between those. And, still, every GUI framework seems to come up with its own philosphy how certain keystrokes and GUI elements should work, apart from the fact that there is still no really gobal clipboard.
The issues I have using this tools are well-known, documented and exist at least since I began using Linux for my daily work again several years ago. All of these applications didn’t make visible progress since then. What is more astonishing: some of them feel like there hasn’t been much change since my first contact with Linux roughly 17 years ago.

I know what some of you might think now. Please, don’t come up with „It’s obvious that you have such problems with distro X, you should use distro Y instead! Everything is better there!“
During the last years, I tried a number of different distributions, all promoted as „The one and only distribution to bring back stability, reliability and everything else you love!“. I tried a number of these distributions hoping that it would do its job better. But all of them fell short on their promise. Plus, the more atypical the distribution, the bigger the problem to find someone who can actually help to solve problems with it.

Summed up over the last years, I invested an absurd amount of businessdays to

  • clean install my system
  • fix issues to get my hardware work in the first place
  • fix issues that came up after package updates or distribution upgrade
  • search for help to all of the above
  • .

Nowadays, the diverse community platforms are full of problems and suggestions, but unfortunately, an immense ammount is on a level of esotheric methods or „solutions“ like „I did a clean install and my issue is gone now.“. These are things for which Linux users used to laugh at Windows users for years.

Don’t get me wrong, I like computers, I like to use them and I also like hacking and fiddling with configuration files to reach a certain goal. As a hobby or to realize sophisticated server functionalities. But concerning my system for daily work, I need a reliable system with flawless support for the internal hardware as well as periphery, and the ability that I can update the system to get new features and bug / security fixes without having to fear that functionality breaks. Again, this is what Windows users have been laughed at by Linux users for years.

Concerning my concrete issues in the introduction, after failing to unearth workable information out of the depths of community platforms, I lastly went the official way by filing bugs.
Most of them are open since months now, most of them did not gain any serious attention yet apart from complaining that I did something wrong when writing the bug report or not providing the right / enough information. In every case I provided this information, but none of the bugs has been solved yet or treated in a way that it helped me to fix the issues.

And sadly, even if I would succeed in all of this, there is still a big problem given by the abscence of productivity applications apart from web, mail, office and graphics.

I once had to cut some video material. So I went through the repositories and some PPAs out there to get a video editing tool. I tried three different ones, all being advertised as compatible with my system and being a top-notch thingie.
None of them succeeded in cutting the video correctly, one even did not start.
I ended up tinker with ffmpeg and cut the video blindly, hoping that the time data discovered using a second tool lead to the needed result. Is this the way things should be in 2016?

Providing a product also means that it needs servicing, maybe over a long period of time. For example, „Getting Things Done“ is my favourite methode of – well – getting things done.
This method became popular in ~2006, which means that most applications supporting this method also came up at that time.

Today, the only at least somehow working GTD tool for the Linux desktop is Getting Things GNOME. Sadly, it has some essential backdraws since it is still in some early stage of development (the version number states 0.3.1), but, even worse, it crashes now and then, letting an unpredictable amount of modifications to my data vanish. In fact, the last maintenance release was in 2013. But at least it works most of the time. All other tools I found during many search sessions weren’t even updated since the initial GTD hype, leaving them in an incompatible state since they aren’t hardly maintenanced to be up-to-date to newer Linux distribution versions, but still found in repositories. This lets me think that software repositories have a big amount of members who only exist on paper.

The thing is: I for sure understand that much of what is made possible in the Linux world is made by people in their freetime. But at close of day, I need to get my work done, and to succeed in this I am perfectly fine with spending money for a commercial product with the promise of maintenance over a long period of time – if only there were such products.

Moreover, I have the impression that the platform itself is abandoned by the industry slowly but surely. It is actually getting harder and harder to take part in business conference calls. Two wide-spread tools, Adobe Connect and Skype, lack fundamental support under Linux. To share my screen and benefit from all functionality of Adobe Connect, the „Adobe Connect Add-In“ is needed. There is no Linux version of it. Period.
The last really native version of Skype is heavily outdated and can’t be used for virtually anything except I want to communicate with other Linux users using the same version. For a more current version, the is the new „Skype for Linux“ which isn’t a native application anymore but just a wrapper for the web application. Apart from chats and audio calls there doesn’t seem to work much by now, altough there have been a big number of updates since first release. Oh, and it loves to crash, too.
And, to add one more: Citrix GoToMeeting doesn’t support Linux at all.
So, I have actually no possibility to take part in conference calls and share my screen using a tool which is available for Windows, macOS and Linux and I’m already forced to use an other OS here.

At this point, I am beyond the question of using open source software because it is for example better in terms of privacy or ideology. What I see is: I just want to use my computer as a tool to get my daily work done. And I see that the best I can actually get is a system that hinders me every single day, productive tools lacking innovation and the mere absence of commercial products to compensate lack of open source developers where it is necessary to pay a company for developing an maintaining a product for a specific use case. I tried to take part in the open source process and help the people by describing my problem and offer my help to further investigate and test stuff. But my offer of help wasn’t answered many times, leaving me in a desperate situation.

As it is, I think I won’t change anything in my setup. I have a system that somehow works for me, there is a bunch of issues but I somehow can work around them. I think I won’t give the n+1-th distribution a try, eventually determining that all of the above issues may be gone then but some others are appear instead.

Dear Linux, living with you has become hard.

Das iPad: ein nutzloser, zu groß gewordener iPod touch?

Steve Jobs hat ein neues Apple-Produkt vorgestellt: das Apple iPad. Es handelt sich um das seit bestimmt 1 1/2 Jahren von den Fans und Analysten herbeigeredete Tablet-Gerät.
Bei den ganzen Funktionen und Eigenschaften, die man dem Gerät im Vorfeld angedichtet hat, war eigentlich schon klar, dass gewisse Teile derjenigen, die das Gerät erwarteten, auf jeden Fall enttäuscht sein würden.
Weiterlesen

Drucker FAIL

Kennt ihr diese lustigen DAU-FAQs, bei denen es heißt, man solle, wenn der Drucker nach einem Druckauftrag nicht druckt, einfach noch eine beliebige, möglichst hohe Anzahl den Druckauftrag neu starten?
Ich habe das immer für einen Witz gehalten – bis zu diesem einen Tag.

An der Uni haben wir einen zentralen Printserver. Dieser nimmt Dateien entgegen und bereitet sie in Druckdaten für den jeweiligen Drucker auf.
Je nach Datei kann das schonmal einige Zeit dauern. Das muss nicht zwingend mit der Dateigröße zusammenhängen, sondenr eher mit der Komplexität der im Dokument vorhandenen Objekte.
Nun, das ist vielleicht nicht unbedingt etwas, was man als Ottonormaluser wissen muss, aber wenn man Informatik studiert, kann man schon eher voraussetzen.

Nun, ich war letztens in der Uni um ein paar einzelne Folien auszudrucken. Ich wunderte mich, warum der Drucker nicht druckte – war ich mir doch sicher, dass ich kein sonderlich komplexes Dokument drucken will.
Ich öffnete die Statusseite des Printservers und siehe da: jemand hat etwas gedruckt – UND ZWAR GLEICH DRÖLFZIG MAL!

Wenigstens blieb die Genugtuung, dass der gute Student zahlen durfte – und zwar mit seiner Druckquota.
printerfail1.png

Im Internet steht alles…

… oder auch nicht.

Viele wissen das vielleicht nicht mehr, aber das Internet war ursprünlgich mal dazu gedacht, Informationen bereitzuhalten 😉

Sicherlich gilt für viele Dinge, dass man sie an vielen Orten findet oder, selbst wenn sie auf „normalem“ Wege nicht mehr erreichbar sind, in diversen Archiven noch bekommt.

In letzter Zeit habe ich aber nach verschiedenen Sachen gesucht, bei denen ich erstaunt darüber war, nichts zu finden.

RLL-Festplatten-Metriken

Mir fiel ein alter PC in die Hände. Selbstverständlich war die BIOS-Batterie leer, auf der Festplatte waren aber Daten, die es zu retten galt. Früher gab es im BIOS an die 40 voreingestellte Festplattentypen, die für die ersten Jahre auch alle Festplatten auf dem Markt abdeckten (die Möglichkeit, Festplattenparameter frei einzugeben, war mal ein Zusatzfeature (!), die Möglichkeit, automatisch die Kenndaten der Festplatte zu erkennen, kam dann sehr sehr viel später).
Bei der Festplatte in diesem Computer war es so, dass auf ihr lediglich die Modellnummer stand, und kein Aufkleber (wie damals eigentlich üblich) mit den Kenndaten.
Somit suchte ich im Internet – und fand nichts.
Es hat mich mehrere Stunden (!) Suche gekostet, bis ich dann endlich im Archiv eines Archivs einer nicht mehr online stehenden, gemirrorten, archivierten, weggespeicherten gebackupten Seite meine Information gefunden habe.
Das ist wirklich was anderes als „alles ist überall zu finden“.

Bye bye, Netscape Navigator

Es begab sich etwa im Jahr 1998. Windows war noch toll, Videos im Internet selten und ISDN die schnellste Möglichkeit, Daten per DFÜ zu übertragen.
Ich fing an, die Weiten des Internets zu erkunden. Schon bald fiel die Entscheidung gegen Outlook und den Internet Explorer, hin zu Netscape Naviagor und damit später zum Netscape Communicator. Der Rest ist Geschichte: bishin zum Netscape Navigator 4.75 ging es, dann kam auch irgendwann Linux. Irgendwann kam dann der Umstieg zu Mozilla, sowas um die Gegend 0.8 oder so. Im Jahr 2003 kam dann auch der Umstieg auf MacOS. Irgendwann kam dann auch die Aufsplittung des Mozilla-Projekts in einzelne Programme. Viel hat sich seitdem getan, was sich nicht geändert hat ist mein Mailarchiv. Seitdem ich andauernd das Mozilla-Mail-Produkt nutze, haben meine über die Jahre gesammelten Mails auch immer wieder Umzüge mitgemacht.
Nun hält GTD in mein Leben Einzug. Meine derzeit favorisierte Software dafür ist Things. Ähnlich wie ein Konkurrenzprodukt, OmniFocus, bietet auch Things die Möglichkeit, E-Mails als Notiz an ein Todo anzuhängen; diese Integration setzt aber zwingend Apple Mail voraus.
Nun, geliebäugelt habe ich damit immer mal wieder; neben verschiedenen UI-Elementen, die mir bei Mail besser gefallen als bei Thunderbird, überzeugt mich bei Mail auch die Arbeitsgeschwindigkeit.
Sodenn, mach’s gut, Thunderbird, die Zeit mit dir war schön!

Hobbytronic, RIP…

Tja, das wars dann wohl. Mittlerweile ist es hoch offiziell: die Hobbytronic fällt in diesem Jahr aus.
Interessant, dass die Wirtschaftskrise zwar für den Tod der Hobbytronic verantwortlich gemacht wird und zeitgleich die Intermodellbau nochmals vergrößert wird…

Ich war auch auf der 2008er, wahrscheinlich also der letzten Hobbytronic. Es lag da auf der Hand, dass es bei dem derzeitigen Konzept auch nicht mehr lange dauern würde, bis da die Türen zugemacht werden und die Hobbytronic vollends in der Intermodellbau aufgehen wird; Firmen wie Conrad z. B. sind ja sowieso schon zur Intermodellbau gewechselt.

Dass das Internet einen nicht unmaßgeblichen Anteil am Niedergang hat, ist klar. So kränkelt ja auch die CeBit; Produkte, die die Firmen wirklich erst auf der CeBit vorstellen, sind ja der Einzelfall geworden. Das ergibt sich aber auch: welche Firma kann es sich in dem Sektor denn noch leisten, nur zu bestimmten Terminen im Jahr neue Produkte vorzustellen? Oder andersherum gedacht: wo früher Messen wie die CeBit und die Berichte in Zeitschriften und Fernsehsendungen darüber, eine der wenigen Möglichkeiten für Hersteller waren, über neue Produkte zu informieren, ist das mit dem Internet viel einfacher, schneller und kostengünstiger möglich.

Aber zurück zur Hobbytronic. Bei meinen ersten Besuchen dort füllte die Hobbytronic noch mehrere Hallen. Da gab es eine Halle, in der explizit keine (!) Computer gab, sondern ausschließlich Bauelemente, Elektronik und Amateurfunk.
Daran, dass diese Dinge überhaupt kein Thema mehr sind, stellt man aber auch zwei Dinge fest: das Basteln ist kaum noch ein Thema.

Aber man muss auch feststellen, dass die „Notwendigkeit“ des Bastelns immer weniger besteht. Gab es noch Zeiten, wo gewisse Geräte, wenn es sie denn überhaupt fertig zu kaufen gab, so unendlich teuer waren, dass sie für „Otto-Normalverbraucher“ kaum erschwinglich waren. Da fällt mir direkt der WDR Computerclub mit Wolfgang und Wolfgang ein, die sich selbst einen Scanner gebaut haben. Heute dürfte der Materialpreis für so ein Projekt den Anschaffungspreis eines Scanners von der Stange locker übersteigen, da man letzteren wohl mit ein bisschen Glück aus einem beliebigen Haufen „Elektroschrott“ ziehen kann.
Scanner, Farbdrucker, Rechnervernetzung, Videoein- und ausgabe, Klangerzeugung, Klangverarbeitung, Spracheingabe, Sprachausgabe,… alles Dinge, die heute mit einem handelsüblichen PC problemlos möglich sind – und zwar ohne großen Aufwand. Gab es früher Macs, für die es Steckkarten mit PC-Hardware gab, um PC-Software auf dem Mac laufen zu lassen, machen wir das heute alles in Software.

Die „Notwendigkeit“ hat sich dramatisch verringert. Es gibt natürlich immer noch Spezialanwendungen, bei denen sich das Basteln lohnt – das Stichwort „Messen, Steuern, Regeln“ sehe ich heute als ein viel größeres Thema an, als es in den 80ern der Fall war. Hochintegrierte Rechner, Einplatinensysteme, Mikrocontroller mit Netzwerk- und meist Internetzugang sorgen schon und werden in der nächsten Zeit sicherlich noch für eine Vielzahl interessanter Entwicklungen sorgen. Mit der Einführung und (nahezu) flächendeckenden Versorgung mit Breitband-Internet und Flatrates sind schon eine Vielzahl spannender Anwendungen möglich, um „mal eben“ von einem quasi beliebigen PC auf Daten von zu Hause zuzugreifen. Nach und nach beginnt im mobilen Bereich auch die Zeit der günstigen und quasi-dauerhaften Internetanbindung, sodass man bald im vorigen Satz „PC“ durch „Internet-fähiges Endgerät“ ersetzen kann.
Doch in punkto Basteln hat sich noch etwas verändert: das Basteln ist heute technisch nicht mehr auf dem gleichen Stand wie die Serienfertigung. Wer früher einen Computer haben wollte, konnte ihn sich fertig kaufen oder selbst bauen (siehe Apple I und sinclar ZX 81). Die groben Fertigungstechniken ermöglichten es, auch im Bereich der Platinen und dem Prozessor Hand anzulegen. Durch die hochgradige Miniaturisierung ist es dem unbedarften Bastler heute nahezu unmöglich, heutige Bauteile zu verarbeiten. Früher reichte ein Lötkolben, etwas Lackdraht und eine Lochrasterplatine aus und fertig war die Basis für die Hardwarebastelei.

Heute übliche SMD-Bauteile sind gleichzeitig Segen und Fluch: einerseits bescheren sie uns Produkte ungeahnter Winzigkeit, andererseits machen sie das händische Bauen schwer bis unmöglich. Mit Tricks kann man zwar auch SMDs und BGAs verarbeiten, aber das auch nur beschränkt und mit zum Teil recht abenteuerlichen Methoden.

Früher waren jedoch nicht nur die Art der verarbeiteten Bauteile bei Bastlern und Industrie ähnlich, sondern auch die Bauteile selbst. So gibt es durchaus den einen oder anderen Rechner aus den 80ern, der fast oder vollständig aus Standardbauteilen aufgebaut ist.

Basteln ist also im gewissen Sinne eine Nische geworden. Mittlerweile rücken Mikrocontroller aber immer mehr ins Rampenlicht. Das „frei programmierbare Steuerboard für Jedermann in Massenproduktion“ könnte viele Bastler und Tüftler zurückholen bzw. Einsteiger motivieren. Der ComputerClub 2 führt ja in Zusammenarbeit mit dem Elektor ein Mikrocontroller-Projekt durch, das wohl von großem Erfolg gekrönt ist.

Die allgemeinen Veränderungen auf dem Elektroniksektor dürften also sicherlich ein Grund für den schleichenden Untergang der Hobbytronic sein.
Allerdings sehe ich auch noch ein Problem: die Hobbytronic zeigte schon vor einigen Jahren einen Trend zur „Ramschmesse“ – das mag schon Mitte der 90er angefangen haben. Es gab mehr und mehr Händler, die direkt aus Kisten abverkauft haben oder Bestände ausgemusterter Rechner aufgekauft und die dann auf der Hobbytronic im wahrsten Sinne des Wortes „verramscht“ haben. Dieser Trend hat sich in den Jahren fortgesetzt, bis es Händler gab, die scheinbar Elektroschrott zum Tonnenpreis eingekauft haben mögen, um diesen dann möglichst Gewinn bringend loszuwerden und den Rest nach Messeende zu entsorgen. In den letzten paar Jahren war dem nun nicht mehr so: es gibt nun durchaus mehrere Stände, bei denen es (zumindest dem Eindruck und Gefühl nach) funktionierende Gebrauchtware zu vernünftigen Preisen zu kaufen gibt. Das hilft nun allerdings nicht mehr viel, da die Qualität der anderen Stände arg nachgelassen hat.
Bei meinem Rundgang über die 2008er Hobbytronic habe ich mich zwischenzeitlich wie auf einem in meiner Umgebung üblichen Flohmarkt gefühlt: einige Stände mit fast identischem Sortiment, absolute Massen- bzw. Billigware, alle vom optischen Eindruck her nahezu identisch, aber in großer Anzahl vertreten.
Dieses Prinzip schlug nun zu allem Übel auch noch auf die normalen „Computer“-Stände über. Mir als Mac-User bietet die Hobbytronic nun sowieso nicht die Anreize zum Hardwarekauf, aber nach etwas Überlegen fiel mir ein, dass wir beim DRK für einen bestimmten Rechner noch einen USB-Hub gebrauchen könnten. Ich hatte bei einem Kollegen einen schicken Hub von Logitech gesehen und wollte diesen oder einen ähnlichen kaufen.
Hier merkte ich aber schon sehr schnell, worauf die Händler sich eingeschossen haben: Massenmarkt. Mit dem Zunehmen der Nutzung von USB-Sticks und externer USB-Festplatten stieg bei den PC-Nutzern offenbar der Bedarf nach Hubs. So ein Hub ist aber umständlich, wenn man noch ein extra Netzteil braucht. Ein gescheiter Hub lässt einem mittels Anstecken oder nicht-Anstecken eines Netzteils die Wahl, ob ich ihn als aktiven oder passiven Hub betreiben will.
Dass ein aktiver Hub etwas anderes ist als ein passiver Hub und dass sich daraus entsprechend Konsequenzen ergeben, scheint in den Breiten des 08/15-Nutzers aber nicht so angekommen zu sein, weswegen die Händler Hubs ohne Netzgerät verkaufen und dann groß mit „USB-Hub – braucht kein Netzgerät!“ werben.
Gut – ich wollte aber einen aktiven Hub – und entschied mich damit erstmals gegen die Masse. Die zweite Entscheidung gegen die Masse fiel dann, als ich mich gegen einen USB-Hub mit blinkenden, bunten LEDs entschied. Die Auswahl sank damit drastisch. Als ich an einer handvoll Ständen immer wieder den gleichen, billigen Noname-Hub in der Hand hielt, war für mich klar, dass ich hier nicht das finden werden würde, was ich suche.
Das war etwas, das früher definitiv anders war. Früher traf man auf der Hobbytronic nicht nur auf eine große Auswahl in Quantität, sondern auch in Qualität. Vom gebrauchten Nadeldrucker bis zum fabrikneuen HP-Laserdrucker, vom 100er-Pack unformatierter Noname-Disketten bis zum edlen BASF-Päckchen mit DOS-formatierten Disketten war alles zu bekommen.

Ich bin mittlerweile völlig davon weg, im Alltag Billigprodukte einzusetzen. Doch allein eine hochwertige Tastatur auf der Hobbytronic zu bekommen schien mir unmöglich – Namen wie Cherry oder Logitech habe ich jedenfalls vergeblich gesucht. Auch kann ich mich nicht entsinnen, einen Stand mit Druckern oder Scannern gesehen zu haben. Offensichtlich ist es nicht das, was die Masse im Moment verlangt. Dafür gibt es eine Hand von „Geht immer gut“-Ständen, die vornehmlich oder ausschließlich die „Trend“-Produkte verkaufen. Waren es in den letzten Jahren „Modding-Zubehör“ (Leuchtröhren, leuchtende Lüfter, Gehäuse mit transparenten Elementen) und davor Handyzubehör und noch ein bisschen früher Nachfülltinte, waren es in diesem Jahr kleine ferngesteuerte Hubschrauber.
Früher war es ohne Probleme möglich, am Morgen die Wohnung mit einem leeren Schreibtisch und vollem Geldbeutel zu verlassen und von der Hobbytronic mit einem großen Haufen Paketen zurückzukehren, in denen von Komponente zu Komponente der Wunschcomputer in Hard- und Software enthalten ist und das jeweils mit eine kleinen bis großen Einsparung gegenüber dem regulären Verkaufspreis. Nach meinem Eindruck ist dem nicht mehr so. Es ist zwar durchaus möglich, sich auf der Hobbytronic einen Computer zusammenzustellen, aber man ist in der Produktauswahl für seine Komponenten stark eingeschränkt.
In den letzten Jahren war es auch kein Problem, etwas unüblichere Bauteile zu bekommen. Händler, die z. B. Kabel als Meterware und eine große Auswahl an Steckverbindern anboten, gehörten bis vor ein paar Jahren zum absoluten Standard auf der Hobbytronic. Doch das ist mittlerweile Vergangenheit – dazu ein recht dramatisches Beispiel: wir hatten an unserem Stand Probleme mit einem Stück Hardware auf Basis eines Microcontrollers. Um nun das Problem analysieren zu können, benötigten wir ein Stück Flachbandkabel mit 10-poligem Pfostenstecker-Anschluss; eigentlich ganz einfach – sollte man meinen…
Ich suchte einen Kabelspezialisten auf und entdeckte dort ein recht beachtliches Sortiment – an AKTUELLEN Kabeln, leider nicht mehr.
Aus lauter Not heraus kaufte man dann ein altes USB-Slotblech von ASUS, dem ein solches Kabel beilag.

Ich bin gespannt, was nun mit der Hobby & Elektronik in Stuttgart, die Stuttgarter Version der Hobbytronic passiert; tendenziell lief es dort immer besser, aber ein Abwärtstrend war wohl auch dort zu spüren.

Palm: sind sie wieder da? Tot geglaubte leben länger

Palm. Dieser Name stand mal für innovative und intuitiv zu bedienende PDAs. Palm hat mit dem Palm Pilot (damals nach der Übernahme durch US Robotics) den ersten kommerziell erfolgreichen PDA vorgestellt, möchte ich sagen, und hat lange Jahre auch den Markt dominiert.
Doch irgendwann fehlten die Innovationen, die Hardware kam außer Mode und man verlor den Anschluss an die Zeit.
Das Betriebssystem der Palms ist technisch veraltet, auch große Teile des UIs sind nicht mehr zeitgemäß. Die letzten Jahre gab es immer wieder Gerangel um die Weiterentwicklung; erst wurden die Hardware- und Softwareabteilung von Palm in zwei Firmen gespalten, dann war fraglich, ob das derzeitige OS überarbeitet werden soll, ob ein fremd-OS eingekauft werden soll oder doch selbst etwas neues entwickelt werden soll.
Die Smartphones blieben technisch hinter den Konkurrenzprodukten zurück. Irgendwann fing Palm dann an, Smartphones mit Windows Mobile zu verkaufen – zur Verwunderung Vieler.
Fehlender Absatz schlug sich imemr wieder in Entlassungen und großen Verlusten wider.
Schließlich stieg nochmal ein Investor ein.
Nach Jahren der Spekulationen, dem Hin und Her, Ankündigen und Revidierungen, hat Palm nun auf der CES 2009 gleich zwei Dinge vorgestellt:
mit webOS ein neues Betriebssystem und mit dem Palm pre direkt das erste Endgerät für dieses Betriebssystem.
Ich habe mir die Aufzeichnung der Keynote von Palm, zu erreichen unter dieser Adresse angeschaut und bin – kurzum – ziemlich beeindruckt.
Man scheint sich wirklich Gedanken gemacht zu haben, man hat in punkto Bedienung von Apple gelernt, aber darüber hinaus auch eigene Ideen umgesetzt. Doch nicht nur in der Bedienung an sich, auch bei den Features haben die Leute von Palm viel vor: das zentrale Ziel von webOS soll es sein, die ganzen Informationen, die man „überall“ gespeichert hat, über ein einheitliches Interface erreichbar zu machen; die vorgestellte Konzepte sehen sehr danach aus, als ob Palm hier wieder Innovation ist, wo es auch vor etwa 10 Jahren Standards gesetzt hat: im Bereich der PIM-Anwendungen. Genau der ist meines Erachtens nach der, an dem das iPhone (bisher) (noch) am meisten krankt. PIM heißt zuweilen oftmals nur „ich habe einen Kalender und ich kann Telefonnummern speichern“.
Ich bin sehr gespannt – vor allem auch auf den Preis und würde mich freuen, wenn Palm es schaffen würde, wieder in den Markt zu kommen; das Potential dazu scheint der pre auf alle Fälle zu haben.