Gegenwartsnarren

Schockiernde Fotos aus dem Hambacher Forst. Fällten Umweltschützer 50 Bäume? – Meine Antwort: Wer denn sonst.

Die Aachener Polizei fotografierte jetzt diese Stümpfe frisch geschlagener Bäume im Hambacher Forst
Die Aachener Polizei fotografierte jetzt diese Stümpfe frisch geschlagener Bäume im Hambacher ForstFoto: Polizei – aus BILD Zeitung vom 14.03.2019

Gegenwartsnarren nenne ich alle Demonstranten, die in der heutigen Zeit ohne gelerntem Fachwissen, bei Klimafragen zum Beispiel sollte derjenige der sich fachlich meldet ein Geologiestudium und/oder Klimawissenschaft studiert haben. Wer das nicht hat wie ich, sucht sich im Internet oder auch privat Wissende, die uns aufklären, wie sie die Dinge in der heutigen Zeit sehen und öffentlich darstellen. Zum Beispiel Horst Malberg, Univ.-Prof. (a.D.) für Meteorologie und Klimatologie: Über den dominierenden Einfluß auf den Klimawandel seit 1701, 300-jährige Klimadiagnose kontra Treibhausdebatte.
Wer wie unsere Schülerschaft einer geistig behinderten Schwedin hinterher läuft, oder auch der Masse deutscher Journalisten folgt, hat schon verloren, weil er irgendwann sein Verhalten entschuldigen muss. Wer meint, er kann bedingungslos der IPCC vertrauen, hinterher laufen, ist ebenso ein Trottel, weil die IPCC 2001 folgende Aussage machte, die sich bis heute wenig geändert haben kann, es ist keine 20 Jahre her.

>In climate research and modelling we should recognize, that we are dealing with a coupled non-linear chaotic system, and therefore that the long-term prediction of future climate states is not possible.<

Übersetzung:

>In der Klimaforschung und -modellierung müssen wir erkennen, daß wir es mit einem gekoppelten nichtlinearen chaotischen System zu tun haben, und daß daher eine langfristige Vorhersage zukünftiger Klimazustände nicht möglich ist. <Übersetzung von Andreas Kreuzmann
Quelle: IPCC, Third Assessment Report, 2001, Section 14.2.2.2, S.774

Diese Aussage der IPCC – Intergovernmental Panel on Climate Change* – macht alle späteren Aussagen zu Lügengeschichten mit der Absicht, viele Milliarden $/€ den vielen Nationen aus der Nase zu ziehen. Es waren schon mall 4°C Erderwärmung in den kommenden 50 bis 100 Jahre im Gespräch. Jetzt hat man sich auf 1,5°C reduziert, weil 4° die Menschen total verunsichern. Wer garantiert mir, dass diese Aussage einigermaßen stimmt? – richtig, niemand, es ist Kaffeesatzleserei, sonst nichts.

* Climate Change – Klimawandel ist ein Begriff, der total falsch ist, denn das Klima können wir nicht verändern. Noch nicht, behaupte ich mal, irgendwann wird es mit großer Wahrscheinlichkeit möglich sein, dann aber ist meine Zeit auf der Erde schon vorbei und ich kann sicherlich froh sein, denn dann geht die Erde den Bach runter, bis der Mensch sich selbst abschafft hat. Wenn wir weiterhin uns gegenseitig umbringen und die Religionen nicht aus dem politischen Spiel heraushalten, dauert es keine 100 Jahre bis unsere Ende gekommen ist. Zuerst müssen alle begreifen, ein Leben nach dem Tode gibt es nicht.

Dieses Bild hat ein leeres Alt-Attribut. Der Dateiname ist malberg_solar_2.png

Die Grafik zeigt die globale Temperaturentwicklung seit Beginn der globalen Beobachtungsreihe (Brohan et al., 2005) anhand 10-jähriger Mittelwerte. Die globale Erwärmung von 1850 bis 2000 beträgt rund 0,6°C (K) und ist unstrittig.

eike-klima-energie.eu

01 09 2018 Naturgesetzliche Schranken der Energiewende

Prof. Dr. Horst-Joachim Lüdecke
Die Energiewende ist in Deutschland primäres Zukunftsprojekt. Nach dem Ausstieg aus der Kernenergie und der Nutzung von Stein- und Braunkohle wird ein weiterer forcierter Ausbau von Sonnen- und Windenergie angestrebt. Ist dies realistisch? Der Beitrag geht auf die beiden naturgesetzlich bedingten Fundamentalmängel der „Erneuerbaren“ ein.

Vorbemerkung

Jede rationale Berichterstattung über die Energiewende – befürwortend oder ablehnend – kommt an technischen Details nicht vorbei. Nur Grünsprech setzt auf puren Glauben und punktet damit bei schlichten Gemütern. Technische Details Laien zu vermitteln ist aber mühsam und oft erfolglos. Mein diese Problematik umgehender neuer Ansatz besteht darin, ausschließlich die grundsätzlichen, naturgesetzlich bedingten Schwächen der Energiewende zu beleuchten, welche diese Aktion früher oder später unabdingbar scheitern lassen. Ziele sind bessere Verständlichkeit für Laien und die erkennbare Unwiderlegbarkeit der Argumentation.

Der vorliegende Beitrag wurde durch die positive Resonanz meines Vortrags „Klimaschutz und Energiewende: vereinbar mit Naturgesetzen und Wirtschaftlichkeit?“ an der sächsischen Akademie für Wissenschaften (SAW) in Leipzig am 13.10.2017 vor einem hochrangigen naturwissenschaftlichen Fachpublikum angeregt. Die schriftliche Ausarbeitung des Vortrags erschien dann in der „Naturwissenschaftlichen Rundschau“, dem Organ der Gesellschaft Deutscher Naturforscher und Ärzte, im Juni-Heft 2018, 71. Jahrgang. Hier in den EIKE-News nun die eigene Form mit sachlich unverändertem Inhalt.

  1. Die deutsche Energiewende

Die Bundesregierung plante ursprünglich, bis zum Jahr 2050 gegenüber 2008 den Stromverbrauch um 25% zu senken, den Anteil an erneuerbaren Energien am Bruttostromverbrauch auf 80% zu erhöhen, die Treibhausgasemissionen um 80 bis 95% zu verringern und die Zahl der Elektroautos auf 6 Millionen zu steigern. Aktuell sind diese Zielstellungen verändert und unverbindlicher im Koalitionsvertrag festgehalten [1].

Das Vorhaben, als „Energiewende“ bezeichnet, soll mit Strom aus Wind, Sonne und Biomasse realisiert werden, im Folgenden kurz „Erneuerbare“ genannt (die Bezeichnung ist sachlich falsch, hat sich aber durchgesetzt). Die Energiewende betrifft praktisch nur elektrischen Strom. Elektrische Energie macht aktuell (2017) etwa 1/6 der deutschen Primärenergie aus [2]. Sie ist die wichtigste, weil unverzichtbare Energieform für jede moderne Industriegesellschaft. Strom ist nur ein Medium, um Energie zu transportieren. Er wird aus einer anderen Energieform erzeugt und beim Verbraucher in die jeweils benötigte Energieform umgewandelt. Elektrische Energie kann man in größerem Umfang nur über verlustreiche und kostspielige Umwege speichern, etwa mit Pumpspeicherwerken oder Batterien. Das Stromnetz selber ist kein Speichermedium. Ohne Speicherung muss Strom zum Zeitpunkt seiner Erzeugung sofort verbraucht werden.

Die Energiewende hat mit erheblichen Problemen zu kämpfen. Trotz im Jahre 2017 über 28.000 installierter Windturbinen, deren Nennleistung bereits alle ehemaligen deutschen Kernkraftwerke übertrifft [3], macht verbrauchter Windstrom dennoch nur etwa 3% der deutschen Primärenergie aus, Sonnenstrom und Strom aus Biomasse jeweils etwa 1% [2}. Mehr als 1000 Bürgerinitiativen wenden sich gegen die Beeinträchtigung ihrer Naturumgebung durch Windturbinen sowie gegen gesundheitsschädlichen Windrad-Infraschall. Weiterer Windrad-Ausbau lässt daher zunehmenden gesellschaftlichen Widerstand erwarten.

Deutschland hat heute die höchsten Strompreise Europas [4]. Behörden ergreifen inzwischen Maßnahmen gegen großräumige Stromausfälle, weil die Wahrscheinlichkeit gefährlicher Blackout-Ereignisse [5] infolge des zunehmenden Fluktuationsstroms aus Wind und Sonne ansteigt. Dem Fluktuationsproblem von Wind- und Sonnenstrom wird mit aufwendigem Zu- und Abschalten von schnell reagierenden Gaskraftwerken begegnet (GuD Backupkraftwerke). Das für die Netzstabilität notwendige Vorhalten von fossilen Backupkraftwerken, deren Leistung der Gesamtleistung der fluktuierenden Erneuerbaren entspricht, ist zu einem maßgebenden Kostenfaktor der Energiewende geworden.

Sind die Gründe für die Energiewendeprobleme falsches Management, unzureichende Planung oder technische Unzulänglichkeiten? Zu diesen Fragen gibt es bereits reichhaltige Literatur. Der renommierte Ökonom Prof. Hans-Werner Sinn hat erst jüngst wieder eine kritische Studie zur Energiewende vorgelegt [6]. Grundsätzlich unterliegen die „Erneuerbaren“ und damit die Energiewende zwei naturgesetzlich bedingten Fundamentalmängeln. Der wichtigste wird dabei oft unterschätzt, den Medien ist er so gut wie unbekannt. Mit ihm wird sich der vorliegende Beitrag vorwiegend befassen. Ein naturgesetzlich bedingter Mangel ist durch keine technische Maßnahme zu beseitigen. Der Versuch, dies dennoch zu erzwingen, führt zu extremen Kosten und oft auch hohen Umweltbelastungen.

Energie ist der maßgebende Kostenfaktor industrieller Produktion, und alle Industrienationen befinden sich im globalen Wettbewerb. Nicht einmal ein momentan auf ersten Plätzen dieses Wettbewerbs stehendes Land hat die Garantie, nach nachhaltigen Fehlentscheidungen in seiner Energiepolitik auch dort zu verbleiben. Im Folgenden wird dargelegt, warum die beiden Fundamentalmängel der „Erneuerbaren“ eine unvermeidbare Konsequenz elementarer Naturgesetzlichkeiten sind. Die beiden Fundamentalmängel und ihre naturgesetzlichen Gründe sind zwar den Fachleuten geläufig, nicht aber in erkennbarer Weise den politischen Verantwortlichen.

  1. Energiebedarf im Verlauf der Menschheitsgeschichte

Der tägliche Energiebedarf eines Erwachsenen hat sich im Laufe der Menschheitsgeschichte laufend erhöht. Er betrug um die 8 kWh bei Jägern und Sammlern der Steinzeit, etwa 30 kWh im Mittelalter und ist auf über 200 kWh in modernen Industriegesellschaften angestiegen [7]. Jäger und Sammler deckten ihn noch mit Feuerholz, im Mittelalter kamen Landwirtschaft, Zugtiere sowie Wasserräder und Windmühlen hinzu.

Heute (2015) wird der Energiebedarf der Menschheit zu insgesamt 81,4% von Kohle, Erdöl und Gas gedeckt (s. Bild 1).

Bild 1: Weltenergieverbrauch in Methoden-Anteilen im Jahre 2015, erstellt nach den Daten der IEA [11]. Holz- und Holzkohle (hier unter Biobrennstoffe) stellen mit dem 3,75-fachen der Windenergie zumindest in der EU den größten Anteil an den „Erneuerbaren“ [8]. Da insbesondere die erhältlichen globalen Werte in der Regel nur Schätzungen sind, können unterschiedliche Quellen voneinander abweichende Werte in den Methoden-Anteilen angeben.

Der Rest kommt aus Uran 4,9%, Wasserkraft 2,5%, Biobrennstoffen 9,7% und den „Erneuerbaren“ Wind, Sonne, Geothermie, Gezeitenergie etc. 1,5%. An dieser Zusammensetzung wird sich auch in den nächsten Jahren kaum Wesentliches ändern [8]. Wind- und Sonnen-Energie spielen weltweit nur eine verschwindende Rolle. In Deutschland würden sie bei freien Marktverhältnissen (keine Subventionen, keine gesetzliche Zwangseinspeisung von Sonnen- und Windstrom etc.) wegen ihrer zu hohen Kosten, verglichen mit Kohle oder Uran, nicht vorkommen (s. auch Bild 2 im Abschnitt 5.).

Allein die Umlagen zur Förderung der „Erneuerbaren“ gemäß dem Erneuerbare-Energien-Gesetz (EEG) belasten die deutsche Volkswirtschaft und Verbraucher heute mit 30 Milliarden Euro pro Jahr [9]. Bei der Nutzung der „Erneuerbaren“ Wind, Sonne und Biomasse kommt zumindest in Windturbinen und Photovoltaik modernste Technik zum Einsatz. Diese Modernität verstellt freilich den Blick auf die naturgesetzlichen Schwächen dieser Stromerzeugungsmethoden. Die Energieversorgung im Mittelalter liefert für diese Schwächen ein Anschauungsbeispiel.

Die ab etwa 700 n.Chr. einsetzende Klimaerwärmung mit ihrem Höhepunkt um das Jahr 1000 ließ Ernteerträge und Bevölkerungszahlen ansteigen. Es wurden riesige Waldflächen für den benötigten Ackerboden gerodet, bis 1400 verschwanden dadurch zwei Drittel des deutschen Waldes. Die erfor-derliche Ackerfläche zur Ernährung einer Person war um ein Vielfaches größer als heute. 90% der gesamten Bevölkerung waren Bauern oder anderweitig in der Landwirtschaft beschäftigte Menschen [10]. Der Aufwand an menschlicher Arbeit, Zugtieren und Ackerflächen für die Landwirtschaft war kaum noch zu steigern. Daher war es im Spätmittelalter bei einsetzender Klima-Abkühlung und schlechteren Ernten nicht mehr möglich, die stark angewachsene Bevölkerung noch ausreichend zu ernähren. Es begann die Zeit der Hungersnöte, verstärkt durch Seuchen und Pest. Zwischen dem Jahre 1000 und Ende des 19. Jahrhunderts wurden in Westeuropa 400 Hungersnöte registriert.

Erst der dank neuzeitlicher Chemie mögliche Einsatz von Düngern und Schädlingsbekämpfungsmitteln und die Mechanisierung der Agrarwirtschaft durch Verbrennungsmaschinen konnte die Nahrungsversorgung der Bevölkerung auf eine sichere Basis stellen. Heute ernährt ein Landwirt in Deutschland etwa 130 Mitbürger. Der Anteil der Landwirtschaft am Energieverbrauch der deutschen Gesamtwirtschaft beträgt heute nur noch 1,3% [12].

Um die mittelalterliche Energieerzeugung mit Hilfe riesiger Ackerflächen und einem extrem hohen menschlichen Arbeitsaufwand zu verstehen, sind die physikalischen Größen Energiedichte und Leistungsdichte geeignet. Die zentrale Bedeutung dieser beiden Größen auch für die heutigen Verhältnisse wird im folgenden Abschnitt an Hand von Beispielen verdeutlicht.

  1. Das Problem der Leistungsdichte

Der russische Eisbrecher Arktika wird von zwei kleinen Kernreaktoren an Bord mit einer Gesamtleistung von 55 MW angetrieben [13]. Wollte man die Arktika mit Photovoltaik anstatt mit Uran betreiben, wären rechnerisch 5,5 Quadratkilometer Photovoltaik-Fläche erforderlich, die etwa 10 W Leistung pro m2 Solarpanelenfläche liefert. Mit Windstrom an Stelle von Uran wären 42 Windturbinen des Typs Enercon E 126 erforderlich, jede 198 m hoch und mit einer realen Leistung von 1,3 MW (den fiktiven Antrieben der Arktika liegen die deutschen Jahresmittelwerte von Wind- und Sonnenstrom zugrunde). Eine wind- oder sonnenbetriebene Arktika wäre zudem bei Flaute oder Wolkenbedeckung nicht fahrtüchtig, aber dies soll hier keine Rolle spielen. Die Frage nach den Gründen für den extrem hohen Aufwand der beiden „Erneuerbaren“ Wind und Sonne für den Antrieb der Arktika beantwortet die Leistungsdichte

Leistungsdichte = Leistung / Fläche            (1)

oder

Leistung = Leistungsdichte x Fläche            (2)

Auf der linken Seite von Gleichung (2) steht für alle drei Antriebsarten der Arktika der gleiche Wert von 55 MW. Die Faktoren der rechten Seite der Gleichung zeigen dagegen entscheidende Unterschiede zwischen Uran, Wind und Sonne. Kernreaktoren haben eine sehr hohe Leistungsdichte, sie bringen höchste Leistung auf minimaler Fläche. Man baut sie sogar seit Jahrzehnten in U-Boote ein. Sonne und Wind haben dagegen, naturgesetzlich bedingt, nur minimale Leistungsdichten. Entsprechend muss die Photovoltaik-Fläche beim Solarantrieb oder die von den Windradpropellern überstrichene Fläche beim Windradantrieb extrem groß sein, damit das Produkt in Gleichung (2) noch die hier benötigten 55 MW ergibt. Die folgende Tabelle 1 zeigt Grobwerte von Leistungsdichten.

Tabelle 1: Leistungsdichten unterschiedlicher Methoden zur Erzeugung von elektrischem Strom, angegeben in W/m2 des Endprodukts „elektrische Energie“ unter Einbeziehung der jeweiligen Methoden-Wirkungsgrade.

Die in Tab. 1 zu erkennenden Unterschiede der Leistungsdichten von Wind, strömendem Wasser und Kohle sind unschwer zu veranschaulichen: So kann man sich noch gegen einen Sturm von 20 m/s (72 km/h) Windgeschwindigkeit stemmen, dagegen in einen reißenden Wildfluss von weit weniger als 20 m/s Fließgeschwindigkeit zu geraten, endet oft tödlich. Auch der Unterschied zwischen der in unsere Haut eindringenden Leistung beim Sonnenbad und der in ein Steak eindringenden Leistung auf einem glühenden Holzkohlengrill ist anschaulich. Letztere ist tausendfach höher als die auf der Schwimmbadwiese.

Der Schwachpunkt der mittelalterlichen Energieversorgung wird nun deutlich. Es handelt sich um Methoden kleinster Leistungsdichten, die mit riesigen, ertragsschwachen Ackerflächen und hohem Aufwand an menschlicher Arbeitskraft und Zugtieren einen bei günstigem Klima gerade noch ausreichenden Ertrag lieferten. Eine Windturbine, obwohl ausgestattet mit modernster Technik, ist wegen der minimalen Leistungsdichte des Windes dennoch nichts anderes als ein Rückschritt zu den mittelalterlichen Methoden der Windmühle und des Segelschiffs. Um strömender Luft ausreichend Energie zu entnehmen, benötigen Windräder riesige Propeller. Zu geringe Leistungsdichte des Windes ist der Grund für die Mammut-Ausmaße dieser Anlagen, wenn man davon absieht, dass Windgeschwindigkeiten mit zunehmender Höhe etwas ansteigen. Nicht umsonst haben unsere Vorfahren Segelschiffe zugunsten des Dampf- und späteren Dieselantriebs freudig aufgegeben.

Das hier betonte „naturgesetzlich“ bedeutet, dass wir auf die Leistungsdichten von Wind und Sonneneinstrahlung keinen Einfluss haben. Lediglich die Ernteerträge von Energiemais lassen sich mit moderner Gentechnik und Düngung geringfügig erhöhen. Die Natur selber setzt die Grenzen, auch beste Technik ist gegen zu geringe Leistungsdichten machtlos. Aus einer Pferdekutsche wird auch mit heutiger Computersteuerung und modernster Mechanik kein leistungsstarkes Motorfahrzeug.

Erstaunlich erscheinen in Tabelle 1 die grob 10 W/m2 gemittelte Leistungsdichte aus Photovoltaik in Deutschland. Am oberen Rand der Erdatmosphäre kommen schließlich 1367 W/m2 an. Verantwortlich für den kleinen Wert am Boden ist vor allem der durch Wolken unterbrochene und bei Nacht völlig fehlende Strahlungsfluss. Hinzu kommt, dass die Wirkungsgrade kommerzieller Photovoltaik nur bei grob 10% liegen [14], die Oberflächen der meist fest installierten Solarpanelen nicht dauernd optimal auf die Sonne ausgerichtet sind und vor allem der Wirkungsgrad von Photovoltaikzellen mit steigender Temperatur abnimmt [15].

Neben der Leistungsdichte ist auch die Energiedichte als Energie pro Volumen oder pro Gewicht eine maßgebende Größe. Das Reichweiteproblem von Elektroautos wird mit ihr verständlich. Benzin hat nach Abzug der Wirkungsgradverluste eine Energiedichte von rund 4 kWh/kg, ein Lithium-Ionen-Akku (pur betrachtet) dagegen von 0,18 kWh/kg [16]. Ein Elektroauto muss daher grob das 4/0,18 = 22-fache Treibstoffgewicht eines Benziners mit sich führen. Da heute etwa 71% der Güter in Deutschland (oft über weite Strecken und mit engen Zeitvorgaben) auf der Straße transportiert werden [17], ist zumindest eine Umwandlung von LkW-Antrieben auf Strom unrealistisch. Hier sind nicht nur das zusätzlich zu transportierende Treibstoffgewicht in Form von Akkus sondern auch die langen Ladezeiten der Batterien die maßgeblichen Hinderungsgründe. Elektroautos sind nur für die Stadt eine sinnvolle Option.

  1. Leistungsdichte und Wirkfläche

Bei zu kleiner Leistungsdichte sind sehr große Wirkflächen der betreffenden Methoden erforderlich. Dementsprechend steigt der Aufwand an Energie, Material und Kosten bei Bau und Betrieb. Die folgenden Daten der Großwindanlage Enercon E 126 liefern ein stellvertretendes Beispiel: 198 m Gesamthöhe, überstrichene Propellerfläche 12470 m2 = 1,247 ha, Gewicht 3460 t plus 3500 t Stahlbetonfundament [18]. Drei E 126 haben somit das Gesamtgewicht aller 300 Leopard2 – Panzer von je 68 t der deutschen Bundeswehr [19]. Trotz 7,5 MW Nennleistung liefert die E 126 im bundesdeutschen Orts- und Jahres-Mittel nur 1,3 MW elektrische Leistung. Dies entspricht grob 7 Automotoren von je 200 kW.

Neben der geringen Leistungsdichte des Windes gibt es weitere methodenspezifische Gründe für die erstaunlich geringe Leistungsausbeute aus Wind, die im Abschnitt 9. näher erläutert werden. Man müsste schon mehr als 100 km Windturbinen in den strömungstechnisch erforderlichen Mindestabständen hintereinanderstellen, um die gleiche jahresgemittelte Leistung wie ein einziges großes Kohle- oder Kernkraftwerk zu erzielen. Zudem fluktuiert die aus Wind gewonnene Leistung, die von fossilen Kraftwerken ist dagegen konstant. Windturbinen, inzwischen höher als der Kölner Dom, erweisen sich wegen ihrer zu geringen Leistungsdichte und der sich daraus ergebenden gigantischen Abmessungen als schädlich für die Umwelt. Landschaftsentstellungen, mögliche gesundheitliche Schädigung von Windrad-Anrainern durch Infraschall [20] und das jährlich hunderttausendfache Töten von Vögeln und Fledermäusen sind zu nennen. Fledermäuse können zwar durch ihre Ultraschallortung den hohen Tangentialgeschwindigkeiten der Rotorblätter entkommen, die Luft-Druckstöße zerreißen ihnen aber die Lungen.

Nicht thematisiert und daher der Öffentlichkeit völlig unbekannt sind die bei intensivem Einsatz von Windturbinen erzeugten schädlichen Klimaveränderungen der tiefen Atmosphäre [21]. Die oft auf Hausdächern installierte Photovoltaik ist dagegen umweltneutral, sieht man von Umweltproblemen durch giftige Metalle (Cadmium) bei der Entsorgung von Solarzellen ab [22]. Beim Energiemais gibt es das Problem der zerstörten Artenvielfalt auf Energiemaisfeldern [23]. Zusammengefasst gilt die Regel:

Je kleiner die Leistungsdichte einer Methode zur Stromerzeugung ist, umso größer müssen die Wirkflächen der Methode sein und umso aufwendiger und kostspieliger ist die Methode.

Die Stromerzeugung mit Hilfe von Windturbinen und Energiepflanzen ist wegen deren extrem großen Wirkflächen zudem mit hohen Umweltschäden verbunden.

Physikalische Überlegungen zeigen, dass technischer Fortschritt bei gleichzeitigem Umweltschutz nur mit immer größeren Leistungsdichten in Stromerzeugung, Produktion, Verkehr etc. zu erreichen ist, was sich an den technikgeschichtlichen Entwicklungen belegen lässt. Die benötigte Energie für eine anwachsende Bevölkerung bei gleichzeitig zunehmendem Lebensstandard kann wirtschaftlich und umweltschonend nur mit den jeweils verfügbaren Methoden höchster Leistungsdichte bereitgestellt werden. „Erneuerbare“ sind für moderne Industrienationen ungeeignet, können aber vorübergehend in Ländern der Dritten Welt durchaus sinnvoll sein. Die größten Umweltschäden sind heute in Entwicklungsländern zu finden, die den Weg zu höheren Leistungsdichten noch nicht beschreiten können. Das oft in den Medien betonte „sanft“, mit dem „Erneuerbare“ als vorteilhaft und umweltschonend dargestellt werden sollen, stellt die Fakten komplett auf den Kopf. Es verhält sich genau umgekehrt: Je „sanfter“ eine Methode zur Erzeugung von elektrischer Energie ist, umso kostspieliger und oft umweltschädlicher ist ihre Anwendung.

  1. Erntefaktor – ein Maß für Energieeffizienz

Der Erntefaktor, englisch ERoEI (Energy Returned on Energy Invested), ist eine Größe, die es erlaubt, die Energieeffizienz unterschiedlicher Methoden zur Stromerzeugung zu quantifizieren. Vereinfacht ausgedrückt ist er das Verhältnis der gesamten, während der Lebenszeit einer Methode zur Stromerzeugung erzeugten elektrischen Energie zur derjenigen Energie, die für ihren Betrieb selber aufgewendet werden musste, inklusive des erforderlichen Energieaufwands, um die benötigen Brennstoffe zu fördern und bereitzustellen und die nötigen Anlagen zu errichten.

Bild 2: Erntefaktoren für Methoden der Stromerzeugung gepuffert, d.h. der Fluktuationsausgleich von Sonne und Wind ist berücksichtigt [24]. Sonne, Energiemais (Biomasse) und Wind liegen unter der ökonomischen Schwelle von OECD-Ländern.

Der ERoEI ist ein Energiemultiplikator. Man investiert eine Kilowattstunde und erhält ein Vielfaches zurück, natürlich nur bei ERoEI > 1, sonst wäre es ein Verlustgeschäft. Im Jahre 2012 wurde über den ERoEI eine grundlegende Studie publiziert, auf die sich die Aussagen des vorliegenden Beitrags stützen [24]. Neben der Bedingung ERoEI > 1 gibt es noch die Forderung ERoEI > 7, denn unterhalb von 7 ist eine Methode volkswirtschaftlich nicht mehr sinnvoll. Zur Begründung des Faktors 7 wird auf die Originalarbeit verwiesen. Das Bruttosozialprodukt sowie eine Energieverbrauchs-Technologie nach Kriterien der OECD gehen dort in die wissenschaftliche Herleitung ein.

Bei der Berechnung des ERoEI für Wind- und Sonnenstrom wird auch der Energieaufwand zur Pufferung des fluktuierenden Zufallsstroms berücksichtigt, weil fluktuierender Strom zur direkten Einspeisung in ein Stromnetz ungeeignet ist. Auf diesen zweiten Fundamentalmangel der „Erneuerbaren“ Wind und Sonne wird in Abschnitt 9. eingegangen. Bild 2 zeigt den ERoEI für die wichtigsten Methoden zur Erzeugung von elektrischem Strom.

  1. Leistungsdichte bezogen auf Landschaftsfläche

Zur Angabe einer Leistungsdichte gehört die Spezifizierung der Fläche. An Stelle der in Tabelle 1 in Abschnitt 3 für Leistungsdichten angegebenen Wirkflächen sind Landschaftsflächen oft aussagekräftiger. Wählt man Landschaftsfläche, ändert sich bei der Photovoltaik nur wenig. Wenn sich Photovoltaik auf Hausdächern befindet, verbraucht sie sogar überhaupt keine Landschaftsfläche. Für Energiemais beträgt die Leistungsdichte, bezogen auf die Anbaufläche [25], grob 0,2 W/m2.

Dieser extrem kleine Wert lässt fragen, wie viel Anbaufläche rechnerisch benötigt würde, um ausschließlich mit Energiemais den gesamten Inlandsstrom Deutschlands (in 2016) zu erzeugen: Pro Quadratmeter beträgt die Jahresenergiedichte von Energiemais 0,2 W/m2 · 8760 h = 1752 Wh/m2. Der Inlandsstromverbrauch Deutschlands in 2016 betrug [4] 593 TWh = 593 · 1012 Wh. Daher wären (593 · 1012 Wh)/(1752 Wh/m2) = 3,1 · 1011 m2 oder 310.000 km2 Anbaufläche für Vollversorgung nötig. Das ist fast die Gesamtfläche Deutschlands.

Für Windturbinen im deutschen Jahres- und Ortsschnitt und ihre Installation in „Windparks“ („Park“ in diesem Zusammenhang ist ein bereits als unerträglich zu bezeichnender Euphemismus) beträgt die Leistungsdichte bezogen auf Landschaftsfläche etwa 1 W/m2. Sie ist daher sehr viel kleiner als bezogen auf die Propellerfläche (vergl. Tab. 1 unter Abschnitt 3), denn Windturbinen werden in der Regel nicht einzeln, sondern in Ansammlungen aufgestellt. Hier müssen Mindestabstände eingehalten werden, um Leistungsminderungen durch gegenseitige strömungstechnische Beeinflussung zu vermeiden. Der Wert von 1,1 W/m2 wurde in einer internationalen Fachpublikation für ein Gebiet der USA ermittelt, dessen Windverhältnisse mit Deutschland vergleichbar sind [26]. Eine Abschätzung mit den verfügbaren deutschen Windstromdaten bestätigt ihn: in 2016 waren in Deutschland 27.000 Windräder installiert, meist in „Windparks“ mit Mindestabständen. Eine moderne Windturbine nimmt in „Windparks“ grob 0,3 km2 Bodenfläche in Anspruch. Damit ergibt sich die erzeugte Jahresenergie zu 27.000 · 0,3 · 106 m2 · 1,1 W/m2 · 8760 h = 78 TWh. Das passt zu der erzeugten Inlandsstromenergie von etwa 80 TWh [2]. Für eine Stromvollversorgung Deutschlands nur mit Windrädern ergeben sich 0,2/1,1 der Fläche von Energiemais. Dies entspricht etwa der Fläche Bayerns.

In diesem Zusammenhang ist von Interesse, wie weit ein zukünftiger Windradausbau überhaupt noch gesetzlich zulässig ist. Die entscheidende Größe ist hier der minimale zulässige Abstand eines Windrads zur nächsten Wohnsiedlung. Windräder erzeugen Infraschall, dessen möglichen gesundheitsschädigenden Wirkungen durch wissenschaftliche Untersuchungen belegt sind und dringend weiter zu untersuchen sind. Die heute gründlichste Studie über gesundheitsschädliche Auswirkungen von Infraschall auf den Menschen wurde in Zusammenarbeit der Charité Berlin mit der Physikalisch Technischen Bundesanstalt Braunschweig (PPT) und zwei Hamburger Universitätskliniken erstellt [20]. Die Quellenangaben dieser Studie liefern überdies einen guten Überblick zum heutigen wissenschaftlichen Kenntnisstand.

Wegen Infraschall ist inzwischen in Bayern der Mindestabstand 10 H vorgeschrieben, das bedeutet die zehnfache Gesamthöhe des betreffenden Windrads. Aus der Grafik Abb. 12 auf S. 38 einer Studie des Bundesumweltamts [27] geht hervor, dass bei 2000 m Mindestabstand (dies entspricht 10 H bei 200 m hohen Windrädern) nur noch maximal 0,4% der bundesdeutschen Fläche für den weiteren Windradausbau nutzbar ist. Ausgeschlossene Sondergebiete sind dabei nicht berücksichtig, so dass sich der reale Wert noch etwas verringert. Der Ausbauplan der Bundesregierung für Windenergie [1] erscheint daher unrealistisch.

  1. Das Problem der Fluktuation von Wind- und Sonnenstrom

Der zweite Fundamentalmangel von Wind- und Sonnenstrom, seine Wetterabhängigkeit, ist besser bekannt und wird bereits von den Medien thematisiert. Unvorhersehbar anfallender Strom kann ohne weitere Maßnahmen nicht in das Stromnetz eingespeist werden. Die gelegentlich geäußerte Annahme, dass ein europaweiter Windradverbund für Glättung sorgen würde, hat eine ausführliche Studie des VGB Powertech (kurz VGB, ein internationaler Interessenverband von Unternehmen der Elektrizitäts- und Wärmeversorgungsbranche) widerlegt [28]. Das gemessene Minimum dieser Studie an geliefertem Windstrom beträgt nur 4% der europaweit installierten Windrad-Nennleistung. Wörtlich heißt es in der VGB-Studie: „Windenergie trägt damit praktisch nicht zur Versorgungssicherheit bei und erfordert 100 % planbare Backup-Systeme nach heutigem Stand der Technik.“

Diese Backup-Systeme sind heute schnell reagierende Gaskraftwerke (GuD). Diskussionswürdige Stromspeicherlösungen sind nicht in Sicht. Man muss daher für Wind- und Sonnenstrom ein gleichstarkes fossiles Backup-System installieren, welches die Gesamtkosten dieser „Erneuerbaren“ zumindest verdoppelt. Bild 3 zeigt die stündliche Einspeisung von Wind- und Sonnenstrom über das Jahr 2015.

Bild 3: Stündliche Einspeisung des gesamten bundesdeutschen Wind- und Sonnenstroms [29] im Jahre 2015.

Das Einspeiseproblem von Zufallsstrom wird von den Medien inzwischen als eines der dringendsten Probleme der Energiewende wahrgenommen. Die Soll-Netzfrequenz von 50 Hertz ist in engen Grenzen stabil zu halten, bereits bei Abweichungen von 0,2 Hertz besteht die Gefahr eines großflächigen Netz-Blackouts [5]. So etwas war von den früheren Kohle-, Gas- und Kernkraftwerken mit ihrem stetigen Grundlaststrom unbekannt.

Wetterabhängiger Zufallsstrom ist bis heute ohne Ersatzkraftwerke nicht in der Lage, den Strombedarf jederzeit zu decken. Ersatzkraftwerke sind aber infolge Teilbetriebs und hoher Lastwechselfrequenz schnellem Verschleiß unterworfen und wirtschaftlich unrentabel. Auf Profit angewiesene Unternehmen haben daher kein Interesse, sie zu bauen. Pumpspeicherwerke als bislang einzige Alternative zu Backup-Kraftwerken, wie sie zum Beispiel in Norwegen eingesetzt werden, sind hierzulande aus topogeografischen Gründen nicht möglich, von Einzelanlagen abgesehen.

  1. Photovoltaik in Ländern starker Insolation

Für Entwicklungsländer mit hoher Sonneneinstrahlung und fehlender Strom-Infrastruktur sind kleinste Photovoltaik-Anlagen eine interessante und offenbar auch vielgenutzte Option. Hier reichen für eine Familie bereits wenige Quadratmeter Solarzellen und wenige Autobatterien als Stromspeicher aus, um den Fernseher zu betreiben, nachts elektrisch zu beleuchten und das SmartPhone aufzuladen. Betrachtet man dagegen die Stromgewinnung aus großen Photovoltaik- oder Sonnenspiegel-Anlagen, ergibt sich ein anderes Bild. Trotz, verglichen mit Deutschland, etwa doppelt so starker Insolation in afrikanischen Ländern, in Australien oder in den Südstaaten der USA konnte sich dort die Nutzung von Solarstrom nicht durchsetzen. Solarstrom hat, wie Bild 2 zeigt, den kleinsten Erntefaktor aller Verfahren.

Insbesondere von deutscher Seite wurden zahlreiche Solarstromprojekte in Ländern mit hoher Insolation angestoßen. In solche Projekte flossen zum Teil erhebliche Mittel, zwei stellvertretende Beispiele wurden in den EIKE-News näher beschrieben [30]. Ein langfristiger Erfolg irgendeines Großprojekts zur Deckung des überregionalen Bedarfs ist bislang nicht bekannt. Es gibt kaum eine Weltgegend, die besser als die kanarischen Inseln mit Wind und Sonne gesegnet ist, dennoch haben sich selbst hier und trotz hoher finanzieller Anschub-Unterstützung Wind- und Sonnenenergie nicht durchsetzen können. Die Energienutzungs-Statistik von Marokko bestätigt das kanarische Beispiel [31]. 2012 lieferten in Marokko Geothermie, Solar und Wind zusammen 0,3% der Primärenergie.

Der Grund für die Misserfolge liegt auf der Hand. Sieht man von den eingangs beschriebenen Vorteilen einer Nutzung in sehr kleinen Einheiten ab, verbessert sich in Großanlagen sonnenstarker Länder als einziges Kriterium nur die Insolation. Dieser Vorteil reicht aber bei weitem nicht aus, um die bereits geschilderten Nachteile der Photovoltaik wieder wettzumachen.

  1. Leistung von Windrädern und Photovoltaik

Die geringe Leistungsausbeute von Photovoltaik ist mit den Schwankungen sowie nächstens völligem Fehlen des solaren Strahlungsflusses und den sehr kleinen Wirkungsgraden von Photozellen um die 10% im Wesentlichen erklärt. Für Windräder muss dagegen neben der Windfluktuation auch noch die typische Kennlinie einer Windturbine (Bild 4) beachtet werden. Erst damit ist die, verglichen mit Sonnenstrom, noch heftigere Schwankung der Stromleistung (Bild 3 oben) und die extrem ungünstige Leistungsernte von Windturbinen zu verstehen.

Bild 4: Beispiel einer Windradkennlinie (blau), erstellt aus den Daten [18]. Das v3 Gesetz und die Betz-Joukowsky-Grenze [32] werden prinzipiell von einem Windrad nicht erreicht. Die mittleren Windgeschwindigkeiten an der Nordseeküste [33] liegen bei 5,8 bis 5,9 m/s, für den Offshorebereich der Nordsee [34] um die 9 m/s. Selbst Offshore-Windgeschwindigkeiten lassen daher die Nutzung des sinnvollen Betriebsbereichs von Windturbinen (grau) nur eingeschränkt in dessen linken Randbereich zu.

Alle Strömungsmaschinen unterliegen dem physikalischen Gesetz „Leistung gleich proportional zur dritten Potenz der Strömungsgeschwindigkeit“ (s. grüne Kurve in Bild 4). Gemäß diesem v3-Gesetz führt Verdoppelung der Windgeschwindigkeit zur Verachtfachung der Stromleistung, Halbierung aber umgekehrt zu ihrer Verringerung auf ein Achtel. Schwankungen von v wirken sich daher mit dritter Potenz verstärkt auf die Schwankungen der Windrad-Leistung aus.

Die in Deutschland vorherrschenden Windgeschwindigkeiten, im Binnenland grob zwischen 0 bis etwa 6 m/s, sind für eine vernünftige Stromausbeute viel zu klein. Offshore und an Meeresküsten ist der Wind zwar wesentlich stärker, man muss aber schon ab etwa v = 8 m/s beginnen, die Windrad-Leistung wegen zu großer mechanischer Belastung zu drosseln. Ab etwa v = 13 m/s muss ein Windrad auf die zulässige Maximalleistung (Nennleistung) begrenzt und ab etwa 25 m/s abgeschaltet werden. Damit ist gerade der Bereich von sehr hohen Windgeschwindigkeiten nur stark gedrosselt nutzbar.

  1. Sicherheitsgrenze für wetterabhängigen Fluktuationsstrom

Die bisher geschilderten technischen und wirtschaftlichen Begrenzungen für die „Erneuerbaren“ Wind und Sonne sind zwar prinzipiell keine unüberwindbaren Hürden für ihren weiteren Ausbau, falls man auf Kosten, Naturschutz, Landschaftsschutz und den Gesundheitsschutz von Windradanrainern (Infraschall) keine Rücksichten nimmt. Es gibt allerdings eine Grenze seitens der Netzsicherheit. Grund dafür sind schnelle Netzstörungen im Bereich von Sekundenbruchteilen bis zu wenigen Sekunden, etwa Netz-Abtrennungen durch den plötzlichen Ausfall eines großen Umspanntransformators o.ä., die zum Zusammenbruch des gesamten Netzes führen können. Um die Auswirkungen dieser kurzfristigen Störungen auf die Stabilität des Netzes im zulässigen Bereich der Frequenzstabilität zu halten, muss ein ausreichend hoher Prozentsatz der elektrischen Gesamtleistung von Synchrongeneratoren mit großen Schwungmassen geliefert werden [35], also von den klassischen Dampfkraftwerken mit Kohle (Gas ist allerdings, verglichen mit Kohle, zu teuer) oder – wie in anderen europäischen Ländern – von Kernkraftwerken.

Leistungsungleichgewichte in Folge von Störungen werden hier durch Abbremsen (Ausspeicherung kinetischer Energie) bzw. Beschleunigen (Einspeicherung kinetischer Energie) der Schwungmassen verzögerungsfrei ausgeglichen. Der erforderliche Anteil von Grundlastkraftwerken hängt von der aktuellen Netzstruktur und ferner davon ab, welches Blackout-Risiko man noch toleriert. Eine Untersuchung der vier großen Netzbetreiber 50Hertz, Amprion, Tennet und TransnetBW geht auf diese Zusammenhänge ein [36] und kommt zu dem Ergebnis, dass für Deutschland die Grundkraftwerks-Mindestleistung von 20 GW nicht unterschritten werden darf. Mit den momentan noch vorhandenen Grundlastkraftwerken wäre damit die erforderliche Sicherheit gegeben. Dies wird sich aber mit zunehmendem Windradausbau, dem gesetzlichen Abschalten weiterer Kernkraftwerke sowie durch die aktuell diskutierte Abschaltung von Kohlekraftwerken in Richtung gefährlicher Instabilität ändern.

Quellen

[1] „Kurzinfo Energieeffizienz“ des BMU; Koalitionsvertrag 2018

[2] BDEW, Quartalsbericht 2017, ferner AGEB Energiebilanzen

[3] DAtF Deutsches Atomforum: Kernenergie in Zahlen, 2016

[4] BMWI, Energiedaten: Gesamtausgabe, Stand Januar 2018, S. 41, 42

[5] Drucksache 17/5672 des deutschen Bundestags,

[6] Hans Werner Sinn (Energiewende)

[7] Geschichte des Energieverbrauchs

[8] Eurostat sowie Statista

[9] BMWI

[10] Der Wald im Mittelalter sowie Leben im Mittelalter

[11] International Energy Agency IEA

[12] VTI Bundesinstitut

[13] Arktika (Schiff)

[14] Solarzelle

[15] Solarzellen bei Erhitzung

[16] Energiedichte

[17] Güterverkehr in Deutschland

[18] Datenblatt Enercon E-126 6.000 sowie Bürgerinitiative Berken

[19] Leopard 2

[20] M. Weichenberger et al.: PlOS One, April 2017, p. 1-19, https://doi.org/10.1371/journal.pone.0174420

[21] L.M. Miller et al., Earth System Dynamics, 2, S. 1-12, 2011, sowie Gans et al., Earth System Dynamics, 3, S. 79-86, 2012

[22] Giftiges Cadmium

[23] Rapswüsten sowie „auf dem Weg in die Maiswüste„?

[24] D. Weißbach et al., Energy, 52, p. 210-221, 2012

[25] A. Hartmann, Statistisches Monatsheft Baden Württemberg 7/2008

[26] L. M. Miller et al., PNAS, 2015

[27] Potenzial der Windenergie an Land, Bundesumweltamt 2013, Abb. 12 auf S. 38

[28] VGB Studie: Windenergie in Deutschland und Europa

[29] R. Schuster, aus den Daten von EEX, Amprion, TenneT, 50Hertz, TransnetBW

[30] EIKE-News vom 7.Sept.20117, EIKE-News vom 7.März 2016

[31] Morocco Energy Situation

[32] Betz-Gesetz

[33] Mittlere Windgeschwindigkeiten Nordseeküste

[34] Mittlere Windgeschwindigkeiten Offshore Nordsee

[35] Der Stromverbraucherschutz e.V. NEAB gibt als Faustformel permanente 45% an.

[36] 50Hertz, Amprion, Tennet, Transnet BW, Auswirkungen reduzierter Schwungmasse auf einen stabilen Netzbetrieb