Skip to main content


Hier werden ein paar Argumente zum Thema Klimabelastung durch die vernetzte Informationstechnik ausgetauscht:
https://www.heise.de/newsticker/meldung/Klimaverschmutzung-Die-Schlote-der-Digitalisierung-rauchen-kraeftig-4568933.html

Was ich aber nicht mehr glauben kann ist, dass Effizienzgewinne in der #Digitalisierung (insb. neue Technologien) uns beim #Klimawandel helfen können. Jeder Effizienzgewinn in der Technologie wird schließlich durch seine Skalierung wieder zunichte gemacht, siehe #JevonsParadox: https://de.wikipedia.org/wiki/Jevons-Paradoxon

#DigitaleNachhaltigkeit

Christian Imhorst reshared this.

"[..] die Datenbanktechnik Blockchain und darauf aufsetzende Anwendungen wie Bitcoin, der Anonymisierungsdienst Tor [..]".

Tor?! Mit seinen knapp 6000 servern, die meisten davon (wahrscheinlich) nur kleine virtuelle server und Raspis?

Nein Tor ist nicht sehr rechenintensiv, die Rechenpower eines RaspberryPi ist für einen mittelgrossen Knoten ausreichend. Bei Tor ist die Internetverbindung die grösste Limitierung ist.

Wenn man zu Hause einen Tor-Relay mit einem Raspi betreibt idlet die CPU mit 5-15 rum. Im Rechenzentrum mit einer 1000MB/s Verbindung würde auch ein Raspi reichen, ggf ein schwachbrüstiger celeron.

Das da Tor genannt wird erscheint mir reine Diskreditierung.

Die Nennung von Tor erscheint mir auch unpassend.

Das generelle Problem ist doch, dass viel zu viele Anwendungen Cloud-Dienste benötigen, die genauso gut und deutlich umweltschonender auch lokal auf den Endgeräten laufen könnten.

Ein zweites Problem sehe ich im mangelnden Bewusstsein für die Problematik. Viele Menschen wissen offenbar nicht, dass für eine Google-Suche um die 1g CO2-Emissionen anfallen. Daher werden aus Bequemlichkeit Suchmaschinen auch für bekannte URLs genutzt.

In der Tat, die Ressourcenschonung durch Offline-Funktionalität wird bisher noch leider völlig unterschätzt beziehungsweise noch viel zu wenig drüber geredet.
Wurde aber zum Glück auch vom Umweltbundesamt erkannt und erhält wohl Einzug in zukünftige Spezifikationen für ressourcenschonende Software aka Blauer Engel

Verschlüsselung allgemein ist ein Aspekt, siehe z.B. https://www.chi.uni-hannover.de/uploads/tx_tkpublikationen/MA-TorstenCasselt.pdf

Ergo ist der Umstieg auf lokale Anwendungen mit der damit einhergehenden Reduzierung nötigen Verschlüsselung - der Code/Resourcen müssen nicht ständig über die verschlüsselte Verbindung - sinnvoll.

ich sage nicht, dass wir mehr unverschlüsselt übertragen sollen, aber weniger übertragen insgesamt ist sicher nicht dumm.

Vielen Dank für die Studie!
Wäre inzwischen interessant zu sehen, wie sich der Stromverbrauch von TLS 1.3 entwickelt hat, deren Spezifikation zum Zeitpunkt der Arbeit (2015) nur als Entwurf vorlag.

In der Studie wird eine CD mit Bash-Skripten erwähnt, vermutlich dürfte das irgendwo zu bekommen sein und vielleicht lässt sich das Verfahren für TLS 1.3 wiederholen.

Das ist ja so ein verlogener Blödsinn, wenn Tor hier in einem Zug mit der Cloud genannt wird. Ich würde wetten, dass die übermäßige und unnötige Nutzung von JavaScript und die Online-Werbeindustrie beide mehr Energie brauchen.

Jedenfalls stimmt es glaub ich auch, dass ein Effizienzgewinn gleich einmal durch das Wachstum wieder aufgefressen wird.

Dass anonymes, sicheres Surfen mehr Strom verbraucht, ist nicht überraschend. Die wichtige Frage ist: "Warum Tor nutzen?" Oh, ach ja, wegen der Bedrohung durch organisierte Überwachung. Dort sitzen also die Klimasünder.

Ja, gutes Argument! Fragt sich aber was alles unter "organisierte Überwachung" fällt. Was Geheimdienste treiben kostet sicherlich jede Menge Strom und Tor hilft dabei das sinnlos zu machen.

Was imho evtl. aber noch mehr Strom frisst ist das ständige überwachen und analysieren für das zuspielen individualisierter Werbung. Und dagegen hilft leider auch kein Tor. Denn auch anonymisiert wird hier individuelle Werbung ausgespielt.

Am besten hilft hier wohl der #Adblocker.

Sinnlos oder nicht: verbraucht wurde der Strom 😕 Wenn auf beiden Seiten ist das die lose-lose-Situation, nur kurzfristig Win für Nutzer*innen.

Wollte statt "organisiert" nur nicht "staatlich & wirtschaftlich" schreiben. Gemeint war beides. "Unorganisiert" wäre: Nachbar*innen bekommen halt grib mit, wann man zuhause ist, wie man sich benimmt, und so.

Apropos #Adblocker: Over der kWh-Effekt lokal messbar ist, oder eher auf Seiten der (nicht)ausliefernden Server?

The University of Twente seems to do some research on this:

"[...] advertisements are responsible for 15 ~ 53 percent of the total energy consumed when browsing a website with advertisements on a smartphone."
https://pdfs.semanticscholar.org/c2f4/b15d53eeeabbe41e918eefffa9321978f82d.pdf

"[...] total amount of energy used to display web advertisement [towards dutch users] is equivalent of the total yearly electricity consumption of nearly 2000 households"
https://ris.utwente.nl/ws/files/5095958/Hidden-Energy-Costs.pdf

#Adblocker #Climate #Sustainability

Vorstellbar wäre Effizienzgewinn schon, aber ich denke, daß das Modell beliebig komplex wird (spätestens wenn man Beispiele wie Verkehrsplanung und -optimierung anführt, die wir ja auch "losgelöst" nur ansatzweise im Griff haben). Energie-Effizienz von selbstgehosteten Lösungen (selbst mit RaspPis) vs. Cloud-Rechenzentren (die schon aus wirtschaftlichen Gründen optimieren müssen, aber auch Kraft haben, das zu können) würde mich indes schon an Zahlen interessieren. Hat da wer was?

Wenn es nur ein Raspi ist und du die andere Hardware wie deinen Router sowieso betreibst, liegt das bei den Herstellungsaufwänden, Transport bei dir und am Ende dem Stromverbrauch. Ein Raspi 4 unter Volllast verbraucht ca. 5 Watt, das sind am Tag 120 Wh, also 0,1KWh. Für eine 1KWh im Deutschen Strommix werden 480g CO2 angesetzt, also 48g CO2 einen Raspi pro Tag unter Volllast, wenn ich mich nicht verrechnet habe.

Eine Google-Suche verursacht wohl 1g CO2 höre ich immer wieder, d.h. für 50 Suchen (Ich weiss nicht ob da schon die Vorschläge reingerechnet sind, die bei jedem Zeichen kommen) wäre demnach ein Raspi für 24h unter Volllast betreibbar, oder habe ich mich verrechnet?

@z428 Bringt natürlicht nicht viel einen Raspi mit dem man zb seine Nextcloud betreibt mit einer Google-Suche zu vergleichen. Die würde ja dennoch mit Google gemacht werden.

Die interessante Frage wäre eigentlich, ob zb eine selbstgehostete @nextcloud auf einem Raspi weniger Strom verbaucht als eine gleichwertige Instanz eines zentralen Anbieters mit Rechenzentrum oder umgekehrt? Gibt es dazu Studien oder Erkenntnisse?
@bjoern

Richtig, genau Letzteres war mein Punkt. Wenn man die einschlägigen Artikel von Google, Facebook, Amazon und Konsorten liest, wie die ihren Kram im RZ optimiert haben (mit Themen wie Netzteile in den Racks statt in den Gehäusen, montierte Spezialkomponenten, aber auch systematischen Prozessen obendrauf, um Energiefresser zu finden und zu optimieren), dann drängt sich der Eindruck auf, daß das im "Kleinen", wenn überhaupt, deutlich schwerer hinzubekommen ist.

@softmetz @nextcloud @bjoern

("Verhältnisfragen" sind dort auch außen vor - wenn man etwa vergleicht, was es braucht, eine NextCloud oder irgendeinen anderen Server mit einer Verfügbarkeit analog zu etwas "Gehostetem" zu betreiben...)

@softmetz @nextcloud @bjoern

Bei aller Optimierung in der Cloud darf nicht vergessen werden, dass ein großer Teil des Energiebedarfs in Rechenzentren durch die Kühlung entsteht, wenn das nicht sogar mehr Strom frisst, als die Server in Summe.

Jedenfalls wird die Klimatisierung/Kühlung durch die Konzentration der Server auf eine verhältnismäßig geringe Fläche nötig. Dazu kommen noch Infrastruktur- und Netzwerkkomponenten wie Switches, die ebenfalls durch die Zentralisierung nötig werden.

Bei den Servern selbst wird ebenfalls aufgrund der hohen Dichte, z.B. durch Virtualisierung nötig, das Server und/oder Komponenten redundant ausgelegt sein müssen um überhaupt eine vertretbare Verfügbarkeit zu haben, schließlich steigt die Ausfallwahrscheinlichkeit mit der Zahl der enthaltenen Komponenten an. Auch hier ist die Zentralisierung ein großer Treiber.

3 people reshared this

Und da beginnt der eigentlich richtig coole Ansatz, entweder auf großer Skala Rechenzentren an das Fernwärmenetz anzubinden - oder mMn noch cooler, Server stärker zu dezentralisieren und zum Heizen einzelner Haushalte zu verwenden.

Allerdings ist das kein Ersatz für bessere Isolierungen und Wärmedämmungen...

Zum Beispiel. Ich hab aber keine Idee, wie man das auch nur ansatzweise rechnen kann. Für Klimatisierung gibt es bei Google zu deren Infrastruktur Dokumentation - https://www.google.com/about/datacenters/efficiency/how/ - aber verifizierbar ist das für mich nicht. Fakt ist, daß wir selbst etwa in unserem Betrieb von einem PUE von 1.06 oder auch "nur" 1.13 relativ weit weg sind, ebenso von der Möglichkeit, die Dinge derart systematisch zu betrachten.

@softmetz @bjoern @3rik @nextcloud

Dabei bitte nicht vergessen, dass der aktive Strombedarf beim Bewegen der Wärme entsteht. Die Nutzung der Wärme an sich ist dann aber sicher sinnvoller, als es in die Luft blasen.

@Erik Albers , ich hab keine Zahlen, nur subjektives Geschwurbel: alle 3-5 Jahre tauschen wir unsere Server/Storage aus, um leistungsfähigeren Systemen Platz zu machen. Der Platz halbiert sich, der Stromverbrauch reduziert sich um ca. 40%, die Leistung verdrei- bis vervierfacht sich aber. Ok, vielleicht haben wir vor 5 Jahren nur ein Bruchteil an Datenmengen gebraucht wie heute. Ohne Restrukturierung wäre der Energiebedarf aber eben bedeutend höher. Insgesamt sinken unsere Stromrechnungen.

Ja, so rum betrachtet lohnt es sich in leistungsfähigere Systeme zu investieren. Aber unterm Strich kann es Klimatechnisch teurer werden denn:
a) muss der Energieverbrauch mit einberechnet werden, der notwendig war um die neuen Komponenten herzustellen und die alten zu entsorgen
b) statt sich in Suffizienz zu üben verlockt die neue Effizienz zu immer größeren Datenmengen, es entsteht ein Rebound Effekt bzw Jevons Paradox: https://de.wikipedia.org/wiki/Jevons-Paradoxon