Digitalisierung vs. Klima-Nachhaltigkeit

Man kennt sie: die „Buzzwords“, die, einer Mode folgend immer mal wieder wechselnd, die Diskussionen in bestimmten Themenfeldern antreiben. Ein Buzzword, das meinen Wirkungsbereich tangiert, ist „Digitalisierung“. Ich finde es extrem anstrengend. Insbesondere deswegen, weil die laufenden Diskussionen den Anschein erwecken, als sei dies etwas neues.

„Digitalisieren“ hieß eigentlich mal zum Beispiel, dass man analoge Medien in ein digitales Format überführt, eben „digitalisiert“. Was aktuell genau damit gemein ist, kann man natürlich nicht sagen (sonst wäre das Buzzword ja kein Buzzword), aber ich würde wie folgt zusammenfassen: Dinge mit Computern machen, bei denen das bisher noch nicht der Fall ist. Absurde Blüten treibt die Verwendung des Begriffs übrigens, wenn Kunden aufgrund der Abschaltung ihres ISDN-Anschlusses (wir erinnern uns: Integrated Services Digital Network) ein Produkt namens Digitalisierungsbox verkauft wird. Das zeigt noch einen anderen Aspekt auf: „Digitalisierung“ meint oftmals auch „Existierende Computersysteme durch neue Computersysteme ersetzen“.

In Folge 146 des Podcasts „Methodisch inkorrekt!“ wurde das Thema „Stromverbrauch durch die Digitalisierung“ angesprochen. Nun stellt uns der Klimawandel ja vor vielfältige Herausforderungen, und der Ruf wird laut, dass ein ganz klarer Baustein sein muss, dass wir ganz viel Digitalisierung, und damit einhergehend den massiven Ausbau mobiler, latenzarmer Breitbandnetze, bekommen, um Ressourcen besser nutzen zu können. Der Wunsch, dass viel mehr Dinge durch Computer geregelt werden sollen, bedeutet aber auch, dass viel mehr Rechenressourcen benötigt werden, die somit auch viel mehr Energie benötigen werden.

Immer mehr Systeme werden nicht „in Hardware gegossen“, sondern von Software angetrieben. Selbst Geräte, die früher noch feste Domäne von „großen Kisten“ waren, wie beispielsweise große Router in Rechenzentren, werden heute komplett in Software abgebildet.

Es wird somit also einen immer größeren Einfluss bedeuten, ob Software selbst auch nachhaltig entwickelt ist. Und damit spreche ich insbesondere von Leistungsfähigkeit und Langlebigkeit. Ich sehe aktuell aber sehr wenig Bestrebungen, die Entwicklung hierauf ausgerichtet wird, und habe allgemein mal Gedanken zum Thema „Stromverbrauch durch die Digitalisierung“ aufgeschrieben und was das aus meiner Sicht bedeutet, wenn wir von immer mehr „smarten Geräten“ (noch so ein Buzzword) umgeben sein sollen.

Energiebedarf im Haushalt

Fangen wir mal mit dem Grundenergiebedarf an. Vielleicht erinnert ihr euch noch, in den 1990ern war oft vom „Standby-Strom“ die Rede, und davon, dass z. B. Fernseher und Videorekorder Strom verbrauchen, nur um per Fernbedienung einschaltbar zu sein. Sehr oft wurde empfohlen, den Fernseher, wenn er nicht benötigt wird, abzuschalten und den Videorekorder an einer Steckdose mit Schalter zu betreiben, o.ä. Davon spricht heute niemand mehr, dafür gibt es zunehmend „smarte“ Geräte im Haushalt.
Auch wenn sie so genannt werden: die technische Umsetzung und die Effizienz hinsichtlich des Ressourcenverbrauchs dahinter ist alles andere als das.
Denn damit die Geräte auf externe Signale reagieren können, müssen sie natürlich ständig in Betrieb sein.

Die Smart Speaker wie Amazon Echo und co verbrauchen kontinuierlich, je nach Betriebszustand 3-5 W:
https://www.esource.com/es-blog-2-17-17-voice-control/ok-google-how-much-energy-does-alexa-consume

Die Spitze der Energieverschwendung im Bereich der smarten Produkte sind vermutlich Glühlampen, die Strom verbrauchen wenn sie nicht leuchten oder z. B. smarte Steckdosen, die natürlich auch im „ausgeschalteten“ Zustand ständig Strom verbrauchen, da sie kontinuerlich im WLAN oder per Bluetooth aktiv sind. Also nicht nur selbst Leistung verbrauchen sondern auch dafür sorgen, dass der Router im Haus ständig was zu tun hat, selbst wenn niemand in der Wohnung ist.

Doch damit nicht genug: die meisten der Geräte, die sich über eine App / Cloud steuern lassen, verbinden sich regelmäßig mit Servern im Internet, um diese Funktionen sicherstellen zu können. Das belastet also nicht nur die heimische Infrastruktur, sondern belegt kontinuierlich Ressourcen vom eigenen Zuhause bis zum Diensteanbieter, und schließlich gibt es irgendwo ein klimatisiertes Rechenzentrum mit Dieselgenerator vor der Tür, wo für mich ein Server läuft, damit ich per App von unterwegs das Licht im Esszimmer steuern kann. Die Frequenz allein solcher „Heartbeat“-Datenpakete kann auch im Sekundenbereich liegen. Pro Gerät.

Datenübertragungen bei Softwareentwicklung und Webseiten

In der Softwareentwicklung gibt es einen wachsenden Drang zur Paketierung bzw. Modularisierung. Das hat natürlich viele Vorteile: Man kann das eigene Produkt sauber von eingebundenen Bibliotheken trennen und kann die Versionen von eingebundenen Bibliotheken steuern.
Andererseits bedeutet das, dass bei dem Kompilieren einer Software, die auf diese Weise entwickelt wird, teilweise simpelster Code immer und immer wieder aus dem Internet geladen wird. Wenn solche Pakete gepuffert werden, wird aber dennoch regelmäßig geprüft, ob die heruntergeladene Version noch dem aktuellen Stand im zentralen Repository entspricht. Auch für vergleichsweise simple Projekte hat man hier schnell Abhängigkeiten im dreistelligen Bereich. Denn natürlich werden die Bibliotheken die ich einbinde, ihrerseits wieder abhängig von anderen Bibliotheken entwickelt.

Hier werden also immer und immer wieder dieselben Informationen verschickt, die eben auch nicht nur die letztendlichen Server, sondern die dazwischen liegende Infrastruktur belasten. Puffer an verschiedenen Stellen verbrauchen wiederum zusätzlich Ressourcen.

Leistungshunger des Webs

Ähnlich sieht es bei Webseiten aus. Das Laden einer modernen Webseite löst meist zig zusätzliche Anfragen/Verbindungen aus, nur, damit sie „schön“ aussieht.
Ein Beispiel: schaut mal mit dem Firefox und dem Entwicklermenü („Element untersuchen“ im Kontextmenü) mit dem Tab „Netzwerkanalyse“, wie viele Anfragen nominell und welche Datenmenge in Summe heute notwendig ist, um eine einfache Webseite zu laden.
Um die Einstiegsseite von minkorrekt.de zu öffnen, benötigte es im Dez. 2019 177 Anfragen und 2,14 MB Daten.
Eim Gegensatz dazu: Fefes Blog für den Juli 2019 sind 2 Anfragen und 95 KB Daten.
Fefes Blog ist jetzt nicht gerade etwas, was man als optisch ansprechende Webseite bezeichnen würde, aber geht es nicht am Ende des Tages bei einer durchschnittlichen Webseite um Übermittlung von Informationen?

Ein ganz plastisches Beispiel: Nehmen wir mal einen PowerMac G5. Das Gerät war 2005 eine Hochleistungs-Workstation. Schaut mal hier, wie es aussieht wenn man so einem Gerät versucht, moderne Webseiten aufzurufen:
https://www.youtube.com/watch?v=aBSgoJXMJ-A

Im Zuge der Nachhaltigkeit könnte man überlegen, ob man denn für bestimmte Tätigkeiten überhaupt einen neueren / schnelleren Computer benötigt. Wenn man mal einen Schritt zurück tritt, kann man die Feststellung machen: da steht ein Computer, der genug Leistung hat, um Videobearbeitung zu machen, DVDs zu mastern und in Tonstudios für die Musikproduktion eingesetzt zu werden, aber Webseiten anzeigen geht, wenn überhaupt, nur noch so mittel.

Komfort erkauft durch Ressourcenverschleuderung

In der Servertechnologie, das betrifft also sowohl das Web als auch Softwarelösungen allgemein, kommt der wachsende Einsatz von Virtualisierungstechnologien dazu. Virtualisierung auf verschiedenen Ebenen hat zwar viele Vorteile, aber die erkauft man sich nicht zuletzt mit Leistungseinbußen:

https://phoenixnap.com/blog/bare-metal-vs-virtualization

In Rechenzentren geht man seit einiger Zeit dazu über, dedizierte Hardware durch Softwarelösungen zu ersetzen, z. B. Router. Wenn die Routingperformance nicht ausreicht, wirft man einfach noch mehr CPU und RAM drauf. Wenn der Strom- bzw. Klimatisierungsaufwand steigt, zahlt der Kunde eben etwas mehr dafür, hat dann aber eine durchvirtualisierte Lösung mit diversen Annehmlichkeiten.

Dazu kommt, dass die Maschinen, die heutzutage als Server eingesetzt sind, von der Systemarchitektur her schnelle und stabile Desktopcomputer für den Rackeinbau sind. Es gibt zwar verschiedene Erweiterungen und Extras, die sich im Serverbetrieb nützlich machen, aber andere Maschinen (Mainframes) sind von grundauf auf die Dinge ausgelegt, auf die es beim Serverbetrieb ankommt:

https://dzone.com/articles/the-mainframe-versus-the-server-farm-a-comparison

https://www.wired.com/insights/2014/04/back-future-cloud-wont-replace-mainframe/

Heute sind noch viele Mainframes im Einsatz, die vor 10 oder 20 Jahren angeschafft wurden und trotz wachsenden Datenmengen noch immer allen Anforderungen gerecht werden. Im Gegensatz dazu gibt es Rechenzentren, wo ganze Racks voller Server alle 3 Jahre durchgetauscht werden müssen, weil die Hardware nicht mehr leistungsfähig genug ist.

Der Bedarf an Rechenzentrums-Kapazitäten wird noch gesteigert, da Anbieter diverser Dienste dazu verführen, mit dem belegten Speicherplatz möglichst gedankenlos umzugehen. Das ist ja nachvollziehbar, denn möglichst viele Daten zu haben ist ja gerade das Geschäftsmodell der meisten dieser Anbieter.

Hier könnte man mit einer Datensparsamkeit sicherlich enorm Festplattenspeicherplatz (und damit Serverkapazitäten, Strom, Klimaleistung, etc.) sparen.
Ein Beispiel: Sucht bei Youtube mal nach „for 10 hours“, es gibt so etwas wie das hier:
https://www.youtube.com/watch?v=G1IbRujko-A

Ein solches Video ist ja dann nicht ein mal auf einer Festplatte abgelegt, sondern redundant auf mehreren Festplatten, mehreren Kern-Rechenzentren, ggf. noch Backupsystemen, und das ganze dann nochmal über zig Rechenzentren bzw. Content Delivery Networks weltweit repliziert – zusätzlich dazu, dass Youtube (andere Dienste natürlich auch) jedes Video noch x-fach zusätzlich in allen denkbaren Videoformaten / Qualitätsstufen / Auflösungen bereit hält.
Ist so etwas notwendig? Könnten wir die Ressourcen, die dafür verbraucht werden, nicht sinnvoller einsetzen?

Die nächste Stufe der Replizierung und Virtualisierung ist im Rahmen von 5G jedoch bereits im Anmarsch. 5G verspricht extrem niedrige Latenzen. Um diese erreichen zu können, muss das Rechenzentrum näher an die Funkzelle rücken. Das soll dazu führen, dass, wenn ich mich innerhalb der Mobilfunknetzes bewege (das im übrigen aufgrund der höheren Funkfrequenz deutlich engmaschiger werden muss), „zieht“ ein Paket aus virtuellen Rechenknoten ständig mit mir mit, um für meinen Bedarf die Daten und Rechenressourcen vorzuhalten, die ich benötigen könnte:

https://www.funkschau.de/telekommunikation/artikel/156877/

Und was der Ausbau für 5G mal eben so zusätzlich zu all dem, was wir jetzt schon haben (und ja eigentlich weniger werden oder wenigstens stagnieren müsste), macht, lässt sich hier nachlesen:

https://www.golem.de/news/rechenzentren-5g-laesst-energiebedarf-stark-ansteigen-1912-145465.html

Ein paar weitere Aspekte werden hier aufgegriffen:

https://www.spiegel.de/netzwelt/netzpolitik/green-it-nur-nachhaltige-digitalisierung-kann-das-klima-retten-a-540d6972-bf67-4571-841d-9c1479df37e1

Dabei wird insbesondere darauf eingegangen, dass „Intelligenz“ im Sinne von „KI“ zumeist bedeutet, man hat ein Rechenzentrum mit so viel Daten wie nur möglich, die dann genutzt werden um eine Eintscheidung bei Anfragen treffen zu können. Und dass das wohl alles andere als nachhaltig ist.

Ich behaupte: Das Nutzungsverhalten für einen Großteil der PCs für einen Großteil der Zeit hat sich in den letzten 20 Jahren praktisch nicht verändert. Es geht um „Office-Anwendungen“, Nachrichtenaustausch und Surfen im Internet.
Sieht man auf den Leistungszuwachs der PCs der letzten 20 Jahre, müssten vor allem diese Dinge alle rasend schnell sein.
Das fatale ist: es gibt vermutlich keine andere Industrie, in der man wachsenden Ressourcenbedarf so leicht befriedigen kann.
Mein Eindruck ist, dass daher in der Vergangenheit an vielen Stellen eben nicht auf geringen Speicherplatzbedarf bzw. CPU-Auslastung optimiert wurde, sondern Wert auf andere Faktoren gelegt wurde.

Ich denke, auch in diesem Bereich muss es zu einem Umdenken kommen und wir sollten uns darauf fokussieren, die Ressourcen, die wir haben, effizienter zu nutzen, und das betrifft sowohl die Optimierung von Software als auch die Systeme, auf denen sie ausgeführt wird.

Das Problem wird jedoch sicherlich sein, für „Kann genauso viel wie vorher, ist jetzt aber effizienter“ wird der Kunde eher seltener Geld ausgeben als für „Hat 10 neue Funktionen und eine buntere Bedienoberfläche“. Und im Zweifel möchte sich ein Hersteller auch nicht die Blöße geben, wenn sich herausstellt, dass er über Jahre ein ineffizientes Produkt verkauft hat.

Dieser Beitrag wurde unter Allgemein veröffentlicht. Setze ein Lesezeichen auf den Permalink.

Schreibe einen Kommentar