Das iPad: ein nutzloser, zu groß gewordener iPod touch?

Steve Jobs hat ein neues Apple-Produkt vorgestellt: das Apple iPad. Es handelt sich um das seit bestimmt 1 1/2 Jahren von den Fans und Analysten herbeigeredete Tablet-Gerät.
Bei den ganzen Funktionen und Eigenschaften, die man dem Gerät im Vorfeld angedichtet hat, war eigentlich schon klar, dass gewisse Teile derjenigen, die das Gerät erwarteten, auf jeden Fall enttäuscht sein würden.

Wolfgang Back vom ComputerClub 2 bloggte und befand das Gerät als eine Art zu groß geratenen iPod touch / iPhone, den man ja nicht einmal in die Hemdtasche stecken könne.
Im Kommentarthread im CC2-Forum spaltete sich die Nation und ein gerade entbrannter Flamewar wurde durch Schließen des Threads unterbunden.

Ich kann dazu nur sagen: mit Aussagen wie „Das ist doch überflüssig.“ oder „Nettes Spielzeug, brauchen tut das aber Niemand.“ kann man sich mittelfristig nur blamieren. Populärste Beispiele: der iPod an sich und das iPhone.
Ich kann mich noch gut daran erinnern, dass der erste iPod auch abgetan wurde als Gerät, das niemand braucht. Es hieß damals, der iPod wäre nichts besonderes, ein MP3-Player wie jeder andere auch – vielleicht abgesehen von dem großen Speicherplatz. Tatsächlich aber hatte sich Apple um vor Allem zwei Dinge mal richtig Gedanken gemacht: das User Interface auf dem Gerät und die Art, wie Gerät und PC synchronisiert werden.
Zu einer Zeit, in der es die Regel war, dass man händisch einzelne Dateien auf seinen MP3-Player kopierte, kam Apple mit einer integrierten Lösung vom Format „plug & play“ auf: iPod anstecken, Sync abwarten, fertig. Und auch das User Interface muss wohl eine gute Idee gewesen sein, denn sonst hätten die iPods heute z. B. in den USA nicht deutlich über 70 % Marktanteil.
Ähnlich das iPhone: auch hier hatte man dem Gerät eine gewisse Nutzlosigkeit angehangen und es als „Handy mit Browserfunktion“ abgetan.
Man mag über das iPhone denken, was man will, aber ich wüsste nicht, dass Google, Nokia oder Palm mit ihren App-Stores auch nur ansatzweise so einen Erfolg haben wie Apple, und auch die Tatsache, dass man offenbar eine ganze Firma nur durch den Verkauf vertragsfreier iPhones (und Zubehör) unterhalten kann, spricht wohl für sich.

Aber zurück zum iPad. Die Idee des nicht mit der Tastatur / Maus bedienten Computers istalles andere als neu. Die PC-Industrie versucht schon seit 1989, uns stiftbediente PCs schmackhaft zu machen.
Das Ergebnis: Tablet PCs sind nachwievor ein Nischenprodukt, selbst Convertibles (vollwertiger Laptop mit „herumklappbarem“ Display) finden immer noch kaum Absatz. Auf Deutsch heißt das: seit gut zwanzig Jahren wird uns eine Idee immer wieder als neu und revolutionär angepriesen.
Wolfgang Back fand Steve Jobs Präsentation mager. Nun, ich kann mich erinnern, dass Microsoft auf der CES 2010 eine Reihe nicht funktionstüchtiger Tablet PC-Prototypen gezeigt hat; wenn Apples Präsentation mager war, weiß ich nicht, wie man die von Microsoft beurteilen mag.

Allerdings wurde bei Microsoft abermals offensichtlich: ein zwanzig Jahre altes Konzept ist im Begriff, wieder einmal aufgewärmt zu werden: ein PC im Laptopformat, auf dem ein angepasstes Standardbetriebssystem läuft. Die Vergangenheit zeigt uns mehr als deutlich: das kann nicht der richtige Weg sein. Und bei genauerem Überlegen wird einem auch klar, warum das so ist: restlos alle Applikationen, die auf heutigen Betriebssystemen (Windows, Mac OS, Linux) laufen, basieren auf der Bedienung durch Tastatur und / oder Maus. Es fängt allein schon damit an dass viele Programme davon profitieren, wenn man sowohl Tastatur und Maus nutzt. Das lässt sich mit einem Tablet so also überhaupt nicht umsetzen. Klar – es gibt eine Bildschirmtastatur, aber die ist immer „full-size“ und nie applikationsbezogen angepasst, und zusätzlich hat man das Problem, dass die Bildschirmausmaße, die die Programme annehmen, nicht darauf ausgelegt sind, immer noch genug Platz für eine Bildschirmtastatur zu lassen.

Ein weiteres Problem: wenn ich einen Computer mit der Maus bediene, habe ich immer die Sicht auf den Bildschirm frei und ich habe keine Mühe, den Mauszeiger präzise zu positionieren.
Bei einem Tablet ist es aber ungleich schwieriger: ich muss den Griffel in der Hand halten und ihn schräg halten, damit ich noch gut sehen kann, wo ich den Mauszeiger hinhaben will.

Wir stellen also fest: es kann nicht der richtige Ansatz sein, bestehende Technologien einfach nur an eine Stiftbedienung anzupassen.

Der nächste Punkt: warum überhaupt Stiftbedienung? Für die Lösung mit dem angepassten OS ist das natürlich völlig klar: so ohne weiteres kann man die Bedienung mit dem Finger nicht auf ein Standardbetriebssystem ummünzen.
Wem das nicht klar ist, der braucht sich nur einen Überblick über die Entwicklung von
Windows mobile anzuschauen. Sehen die frühen Versionen noch wie ein „verkleinertes Windows“ aus, verändert sich das UI Schritt für Schritt von dort weg.
Heutzutage gibt es zwar einige Smartphones, die auf Windows mobile basieren, aber die meisten arbeiten mit eigenen Bedienoberflächen. Allerdings schmunzle ich hier regelmäßig, warum es auch hier Hersteller gibt, die krampfhaft an der Stiftbedienung festhalten. Wenn ich Kollegen sehe, die ihr Samsung Omnia beispielsweise aus der Tasche holen, mit dem unübersichtlichen Stylus-Prügel am Bande, um dann mit voller Konzentration und dem Einsatz beider Hände derart filigrane Aktionen ausführen, als wolle man mit einer Heckenschere einzelne Kästchen aus einem Millimeterpapier ausschneiden.
Aber: wenn ich schon einen Computer entwickle, den ich nicht mehr mit Tastatur und Maus bediene: warum muss dieses Gerät zwangsläufig stiftbedient sein?
In der Regel hat man zwei Hände mit Fingern, also ein angeborenes „pointing device“ mit mehrfacher Hardware-Redundanz. Hier krampfhaft ein zusätzliches Werkzeug auf dem Weg von Mensch zur Maschine einzuführen, wäre ungefähr so, als hätten wir alle keine Türklinken an unseren Türen, würden dafür aber immer einen Vierkantschlüssel mit uns tragen.
Oder: ihr kennt doch vielleicht die schnieken kleinen, eingelassenen Reset-Taster, zum Beispiel an Routern, die man mit einer Kugelschreiberspitze oder einer aufgebogenen Büroklammer drücken muss; würdet ihr einen Fernseher kaufen, bei dessen Fernbedienung alle Tasten so zu bedienen wären?

Um wieder zum Hauptthema zu kommen: mit gesundem Menschenverstand und Blick in die Vergangenheit ist es also sinnvoll und notwendig, ein Gerät mit Fingerbedienung zu entwickeln.
Klar: auch Mac OS ist auf die Bedienung mit Tastatur und Maus ausgelegt. Aber im Gegensatz zu anderen Firmen hat Apple bereits eine Plattform am Start, die sich hervorragend mit dem Finger bedienen lässt. Man hätte von dieser Plattform natürlich nochmal einen Fork machen können und ein „iPad OS“ schöpfen, aber was liegt näher, als das bestehende System einfach zu erweitern? Natürlich: zum jetzigen Augenblick gibt es quasi ausschließlich die normalen iPhone- / iPod-Anwendungen, die sich vergrößert auf dem iPad darstellen lassen. Als das iPhone rauskam, gab es auch fast ausschließlich die Apps, die Apple mitlieferte. Das iPhone wurde erst zu dem, was es ist, weil sich viele pfiffige Leute innovative Apps ausgedacht haben. Durch das größere Display und dem Mehr an Leistung gegenüber dem iPhone bietet auch das iPad völlig neue Möglichkeiten – einen ersten Einblick gibt die Tatsache, dass die Office-Suite iWork auf dem iPad verfügbar sein wird – und somit wird das iPad zu dem, was es auch sein soll: ein Bindeglied zwischen Smartphone und vollwertigem Rechner.

Update 26.02.2010:
Mittlerweile wurde im CC2-Podcast über das iPhone berichtet und im Forum-Thread dazu geht direkt wieder die Post ab.
Da wird sich darüber lustig gemacht, dass das iPad kein Multitasking könne und dass es neben Microsoft und Apple durchaus Hersteller mobiler Endgeräte gäbe, die „excellent“ funktionierendes Multitasking böten.
Dazu kann ich nur sagen: durch meine Erfahrungen habe ich schon so ziemliche alle Gruppen von PC-Nutzern gesehen: von der Hausfrau über den Arbeiter, den Studenten und auch den Rentner / Pensionär bishin zum Mitarbeiter in der „Chefetage“ mit Hochschulabschluss.
Und eines steht für mich mittlerweile fest: das Konzept „Personal Computer“ ist gescheitert. Die Idee des Computers für Jedermann, den Jedermann aufschrauben und erweitern kann, den jeder quasi selbst anpassen und erweitern kann, indem er selbst Programme dafür schreiben kann (in den 80er-Jahren noch eines der Verkaufsargumente), wird so in der Gänze nicht gelebt.
Das Problem ist meines Erachtens, dass die nicht vorhandene Einstiegsschwelle bei einem Großteil der Nutzer nicht dazu führt, dass man sich besonders zwanglos mit dem System auseinander setzt und lernt, ihn vollumfänglich zu bedienen, sondern eher, dass sich gerade eben Minimalst-Wissen entwickelt (und das oft genug auf falschen Annahmen), womit der Nutzer irgendwie das hinbekommt, was er möchte.
Die Sache liegt doch aber auch klar auf der Hand: in einer Welt, in der der durchschnittliche Privatnutzer daran scheitert, seinen Videorecorder zu programmieren, wie kann man dann erwarten, dass er bücherweise (nicht mehr mitgelieferte) Dokumentation zu einem Computer liest?
Um einen (Windows-)PC vernünftig bedienen zu können, fehlt einem unbedarften Menschen extrem viel Wissen. Allerorts wird immer von Firewalls und Virenscannern und Updates geredet: woher soll das alles Jemand wissen, der bisher mit Computern keine Erfahrungen gemacht hat? Dummerweise ist das ein Problem, das nicht nur die Älteren betrifft: selbst jüngere Menschen sind hier völlig verloren, wenn sie nicht z. B. aus dem Elternhaus oder der Schule entsprechend vorgebildet wurden. Und von sogenannten „Informatik“-Kursen in Schulen habe ich bisher noch nicht gehört, dass sie jemandem wirklich ein elementares Grundverständnis des Computers hätten vermitteln können.
Wolfgang Rudolph beklagt sich darüber, dass die Geräte kein Multitasking haben. Ich kann mir bei ihm aber auch sehr gut vorstellen, dass er in der Lage ist, mit einem Multitasking verantwortungsbewusst umzugehen. Was macht aber ein Nutzer, der sich unter „Megabyte“ schlichtweg nichts vorstellen kann, dem einfach das elementare Grundverständnis für so Dinge wie „Rechenzeit“ und „Speicher“ fehlen? Andersherum gefragt: muss ein einfacher Nutzer dieses Wissen überhaupt noch zwingend mitbringen?
Ein Hybrid-Auto hat auch keinen Wahlhebel, mit dem der Nutzer zwischen Elektro- und Verbrennungsmotor wählen kann. Warum? Weil die Entwickler dem unbedarften Nutzer nicht zutrauen, dass er den Mechanismus richtig einsetzen würde und weil es für den erfolgreichen Betrieb des Fahrzeugs auch garnicht notwendig ist.

3 Gedanken zu „Das iPad: ein nutzloser, zu groß gewordener iPod touch?

  1. Ganz nebenbei, apple bekommt evtl. Schwierigkeiten wegen den Namen ipad.
    pad bedeutet eigentlich Schreibblock, was auch passt.

    Aber es gibt noch eine zweite Bedeutung und zwar Tampon oder Damenbinde.
    Und nein, das ist KEIN Aprilscherz!
    Hier der Link zu meiner Info: http://www.sueddeutsche.de/computer/441/501694/text/

    Und Fujitsu stellt einen Antrag auf Namensschutz.

    Also apple wird da noch ganz schön viel Ärger bekommen…

    Onassis

  2. Hm, das sehe ich nicht so.
    Das gegenseitige Anbrüllen und verklagen wegen Rechtsverletzungen dieser Art ist ein übliches Geschäftsgebahren. So etwas läuft immer darauf hinaus, dass von der einen zur anderen Seite ein gewisser Betrag Geld fließt und die Sache ist erledigt. Gleiches gilt auch für Patente – in der Regel lässt man sich nahezu jede „neue“ Idee patentieren, um dann im Bedarfsfall das Patent aus der Schublade ziehen und ein paar Euros (oder Dollars) nebenher machen zu können.

Schreibe einen Kommentar