Mittwoch, 15. September 2010

Düsenstrahltriebwerk- die energiesparsame Fortbewegung

Kein anderes Verkehrssystem konnte innerhalb eines Jahrhunderts einen so beträchtlichen Fortschritt erzielen wie die Luftfahrt. Fortschritt im Sinne der technologischen Möglichkeiten, den Sicherheitsstandards, der Umweltfreundlichkeit und der Anzahl Flugbewegungen und Passagierkilometer. Aus technologischer Sicht bildet das Triebwerk den wesentlichen Kern der Luftfahrt.


Historische Hintergründe:


Wegweisende technologische Fortschritte der Luftfahrt wurden in Deutschland unmittelbar vor und während des Zweiten Weltkrieges erzielt. Nach dem Motto "Not macht erfinderisch" erlebte die deutsche Luftfahrt durch die industrielle Renaissance einen technologischen Aufschwung. Mitte der 1940-er Jahren übernahmen die Alliierten die Baupläne deutscher Waffen- und Aviatiksysteme, womit die Luftfahrttechnologie weiteren Industrienationen zur Verfügung stand. Dies Gewährleistete eine ähnliche Entwicklung der Luftfahrtindustrien auf westlicher, wie auf russischer Seite. Der "Comet" (erster düsenbetriebener Passagierflieger der Boeing um 1950) besass etwa die selben Triebwerke wie der deutsche Jumo-004. Die zunehmende Verkehrsdichte und die damit verbundenen Umweltbelastungen, zusammen mit der Erdölkrise, zwangen die Luftfahrtindustrie zu neuen Innovationen, was schliesslich dazu geführt hat, dass wir heute von Turbofantriebwerken durch die Atmosphäre gestossen werden.



Funktionsprinzip eines Triebwerks:

Grundsätzlich arbeitet ein Triebwerk mit allen Prozessen wie der Kolbenmotor: Ansaugen der Luft, verdichten, Sauerstoff- Treibstoff- Gemisch verbrennen und den Abgas schliesslich wieder ausstossen. Der Unterschied zum Kolbenmotor liegt einfach darin, dass diese vier Prozesse gleichzeitig parallell zueinander vorgehen.

Bei einem klassischen Turbojet- Strahltriebwerk wird die Umgebungsluft vom Verdichter (Rotoren im vorderen Bereich) angesaugt und verdichtet. Eine höhere Anzahl Verdichtungsstufen (Rotorenschichten hinter einander) gewährleistet in der Regel einen höheren Kompressionsdruck. Die ersten Triebwerke hatten 8 Stufen und erreichten einen Überdruck im Verhältnis zum Aussendruck von 3.1: 1, ein Boeing- Passagierflugzeug- Triebwerk hat 17 Stufen und komprimiert die Luft im Verhältnis 12.5: 1, der neue Airbus A380 hat 14 Stufen und erreicht eine Verdichtung von 44: 1. In der Mitte des Triebwerks befindet sich die Brennkammer, wo die komprimierte Luft mit Treibstoff gemischt und gezündet wird. So entsteht bei modernen Triebwerken eine Betriebstemperatur von bis zu 1´800 K (=1´527°C), womit einen weiteren Überdruck erzeugt wird. Dieser Überdruck wird vor dem Ausstossprozess genutzt, um die Turbine anzutreiben, welche über eine Welle den Verdichter vorne antreibt. Ist dieser Kreisprozess im Gange, wird das komprimierte Gas durch die Schubdüse ausgestossen. Beim Austrittspunkt aus der Düse entspannt sich der Überdruck auf den Umgebungsdruck, womit das Gas expandiert und in Ausstossrichtung beschleunigt wird.



Berechnungen/ Kennzahlen:


Dass der oben abgebildtete Arado 234B, erster Prototyp 1939, Serienproduktion von 1942-45 für die deutsche Luftwaffe, eine Geschwindigkeit von 870 km/h, eine Reisehöhe von 11´000 m.ü.M und eine Reichweite von 2´000 km erreichte, kann jeder nachgoogeln. Interessanter ist es aber, wenn seine Leistung genauer unter die Lupe genommen wird, was für das Allgemeinwissen im Bereich Luftfahrttechnologie von wesentlicher Bedeutung sein kann.

Durch die thermodynamischen Grundlagen des Rüchardt´s Experiments kann der Druck berechnet werden, mit dem das zuerst komprimierte und dann erhitzte Gas hinten ausgestossen wird. Haben wir die Betriebstemperatur des Systems, gilt die Formel: {(T_inside/ T_outside)^k = (p_inside/ p_outside)^(k-1))} (k=1.4). So lassen sich Verdichtungstemperatur und Druckzunahme durch die Verbrennung berechnen. Vernachlässigt werden dabei die systembedingten Wärmeverluste und allfällige gasdynamischen Änderungen. So berechnet man die Kompressionswärme: Druckadiabat berechnen; {(300´000Pa/100´000Pa)^0.4= 1.55}, T- ratio (angenommen, Aussentemperatur beträgt 27°C, also 300K); {(T_inside/300K)^1.4= 1.55}. Umrechnung; {1.55^(1/1.4)= 1.3675}. Einsetzen; {1.3675* 300= 410K = T_inside}. In der Annahme, dass die Starttemperatur in der Brennkammer bei Jumo-004 Triebwerken 1´050K beträgt, lässt sich der entstandene Druck nach der Zündung berechnen (Gastemperatur ist immer tiefer als Brennkammertemperatur von 1´650 K, da das Gas nicht die gante Enthalpie aufnimmt): T_ratio adiabatisch: {(1´050K/410K)^1.4= 3.73}, Umkehrformel p: {3.73^(1/0.4)= 26.9}, bezogen auf den Verdichterdruck: {300´000Pa* 26.9= 8´063´800 Pa}, also mehr als das 80- fache des Atmosphärendruckes.



Nach Abzug der Druckreduktion in der Turbine lässt sich die Austrittsgeschwindigkeit durch folgende Formel berechnen: {v_out= sqrt(2*delta_p/rho)} [sqrt = "Wurzel"]. Bei einem Junkers Jumo-004 Strahltriebwerk mit einem Wirkungsgrad von rund 12% lässt sich somit abschätzen, dass die Druckdifferenz zwischen Turbine und Aussenluft ca. 1´000´000Pa beträgt, diesen Wert in die Formel eingesetzt und einem rho-Wert von 1.3 ergibt dies eine Ausstossgeschwindigkeit von 1´240 m/s. Beim A380 sind es 1´850 m/s, was fast an den Wert einer Rakete (2- 4.5 km/s) grenzt.
Will man aus der berechneten Austrittsgeschwindigkeit die Schubleistung eines Triebwerks berechnen, braucht man dazu den Volumenstrom [Iv] {v_out*A_düse} (A=Fläche in m^3) und den Flüchtgkeitsfaktor [f] {f=(delta_p/Iv^2)}. Die Leistung lässt sich nun durch das Produkt aus {f*Iv^3} herleiten. Als Beispiel berechnet man die Startleistung des oben abgebildeten zweimotorigen Arado 234B (Schubdüsenaustrittsflächen total 0.002 m^2, Düsendruck 10 x Atmosphärendruck): {delta_p= 1´100´000Pa- 100´000Pa= 1´000´000Pa}, {v_out= sqrt(2*1´000´000/1.3)= 1´240 m/s}, {1´240m/s* 0.002m^2= 2.5m^3/s=Iv}, {1´000´000Pa/(2.5^2)= 160´000 =f}, {160´000*(2.5^3) = 2´500´000 Watt}. (Vergleich A380: 66´000´000 W).
Will man die Schubkraft abschätzen, so nimmt man diese Leistung und teilt sie durch die damit erreichte Geschwindigkeit von 240 m/s; {2´500´000 W/ 240 m/s = 10´400 N}. Mit dieser Schätzung kommt man den auf wikipedia.com deklarierten 9´800 N Schubkraft pro Jumo-004 Triebwerk relativ nahe, wenn man bedenkt, dass in der Realität die Vorgänge nicht 1:1 nach dem theoretischen Modell ablaufen, z.B. ist das abgestossene Gas keine reine Luft, sondern ein Abgas-Gemisch, welches sich gasdynamisch anders leicht anders verhält als Luft, ausserdem wären diverse Rundungsdifferenzen zu bereinigen.


Turbofantriebwerk:




Im Gegensatz zum Turbojettriebwerk arbeitet der Turbofan zum wesentlichen Teil mit dem Gebläse. Es wird nicht die ganze angesogene Luft durch Verdichter und Brennkammer geschickt, sondern ein Teil wird im Mantel um den Antriebskern herumgeleitet, was ein Rückstossprinzip wie bei einer Propellermaschine bewirkt. Diese technologische Vorrichtung benötigt eine weitere Antriebswelle und ist daher mechanisch etwas anfwändiger, sie bezahlt sich aber mehrfach aus. Abgesehen von der erstaunlichen Energieeffizienz (bis 40% Wirkungsgrad, was für einen Verbrennungsmotor sehr hoch ist), verringert sie die Lärmemissionen und kann viele Schwingungsprobleme im Getriebe beheben. In den letzten Jahrzehnten wurden nur noch Turbofantriebwerke produziert.



Vorteile der "bypass air"- Technik:




Als "bypass air" wird der Luftstrom bezeichnet, der vom Gebläse leicht komprimiert aussen im Mantel um den Kern herum geschickt wird. Zunehmend wird in der Triebwerktechnologie der proportionale Anteil an bypass air gesteigert, da man diese mit zunehmendem Wirkungsgrad des Verbrennungsmotors immer effizienter nutzen kann.



Der Trick, mit dieser Technologie Fluglärm zu reduzieren liegt darin, dass der kaltgelassene "Bypass-Strom" sich hinter der Schubdüse mit dem heissen Verbrennungsstrom mischt und den Reibungslärm zwischen der heissen und der kalten Luft grösstenteils innerhalb der Triebwerkschale auslöst. Der Schall kann so durch eine Art Dämpfer zurückbehalten werden.

Was in diesem System zur Energiesparsamkeit beiträgt, ist die Vermeidung von Rotorenbewegungen in Überschallgeschwindigkeit, da beim Durchbrechen der Schallmauern gasdynamische Verluste entstehen.



Beispiel: Die Turbinen und Verdichter eines oben vorgestellten Junkers Jumo-004 Triebwerks 9´000 Umdrehungen pro Minute, was 150 U./s entspricht und somit eine Winkelgeschwindigkeit von 942 rad/s. Da diese Turbinen und Verdichter einen Radius von etwa 30cm haben, lässt sich mit 0.3*942 = 283 m/s, also 1´017 km/h, die Geschwindigkeit am äusseren Kreisrand berechnen. Schallgeschwindigkeit ist etwa ab 343m/s erreicht, also so weit noch unproblematisch. Wenn man jedoch vom fliegenden Objekt ausgeht und die absolute Geschwindigkeit der Rotorenspitze betrachten will, muss man folgende Formel verwenden: {v_absolut = sqrt(v_plane^2+(w*r)^2)} (w= Winkelgeschwindgkeit). Setzt man die Zahlen ein, wird man feststellen, dass man bei einer Geschwindigkeit von 190m/s, also 684 km/h an die Schallgrenze kommt, was somit erklärt, wieso er 700km/h nur mit erheblichem Aufwand übersteigen und auch auf 11´000 m.ü.M. seine max. Reisegeschwindigkeit von 870 km/h nicht langfristig halten konnte.

nice to know: Die Schallgeschwindigkeit [c] lässt sich durch die Formel {c= sqrt(k*R*T)} berechnen (R= 287), sie ist also viel mehr abhängig von der Temperatur als von der Luftzusammensetzung. Schallgeschwindigkeit liegt also auf 11´000 m-ü.M. nur bei 297 m/s.

Bei grösseren Triebwerken, z.B. für Passagierflugzeuge, hätte ein solcher Verdichter einen Radius von 0.5m, was bei einer Winkelgeschwindigkeit von 942 rad/s aussen eine Geschwindigkeit von 417m/s, also 1´696 km/h ergibt, was deutlich in überschall- Bereich liegt. Das würde bewegungsbedingte Energieverluste verursachen, obwohl die Maschine selbst nicht einmal in Bewegung ist. Genau aus diesem Grund bietet der Turbofan die geniale Lösung, mit einem Getriebe aus zwei Wellen zu arbeiten: Eine innere, sich schnell drehende Welle, die den Verdichter antreibt und so für die Verbrennung sorgt. In die Gegenrichtung dreht die Welle mit dem grossen Radius langsamer, womit das Gebläse betrieben wird. Die beiden gegeneinander rotierenden Wellen gleichen ihren Drehimpuls gegenseitig aus, womit ein grosses Schwingungsproblem gelöst ist.



Grundsätzlich unterscheidet man zwischen "high-bypass" und "low-bypass"- Konstruktionen. Letzteres ist die Bezeichnung für Turbofantriebwerke, bei denen mehr Luft durch die Verbrennung geht als aussen herum, bei modernen high-bypass Triebwerken leitet man mittlerweile über 80% der anströmenden Luftmasse durch den Mantel um den Kern. Die proportionale Aufteilung der Luft in die verschiedenen Kanäle ist variabel; sobald die Beschleunigungsphase der Maschine abgeschlossen ist läuft die Motorenleistung mit rund 30% ihrer Kapazität, womit das Triebwerk weniger Luft in der Brennkammer braucht.



Nachbrenner:



Normale Flugzeugtriebwerke erlauben in der Regel keine Flüge in Überschallgeschwindigkeiten. Sobald Mach 1 annähernd erreicht wird, bildet sich vor dem bewegten Körper einen überproportional erhöhten Luftwiderstand. Man spricht von einer "Schallmauer", welche es energietechnisch erschwert, sie zu durchbrechen. Will man dies doch tun, benötigt man einen so genannten Nachbrenner. Dabei handelt es sich um eine Art weitere Brennkammer ausserhalb des Flugobjekts.

Aufgrund der grossen Wärmebelastung im Triebwerk wird mehr Luft angesogen, als für eine ideale Verbrennung nötig wäre. Der Abgas eines Flugzeugs ist also Sauerstoffhaltig. Diese Sauerstoffhaltigkeit wird mit dem Nachbrenner ausgenützt und einen weiteren Schub erzeugt. Im Bild dieser beiden Mirages ist die Flamme des verbrannten Restsauerstoffs gut sichtbar. Ausser der Tatsache, dass er mit Luft arbeitet, wirkt der Nachbrenner nach einem ähnlichen Prinzip wie ein Raketenantrieb, d.h. die Ausstossgeschwindigkeit ist innerhalb der Erdatmosphäre auf etwa 4´500 m/s beschränkt. Der Grund, warum nur wenige überschalltaugliche Militärflieger schneller als 2´000 km/h fliegen, ist oft nicht die technologische Beschränkung, sondern die Hitzemauer. Überschreitet man diese, beansprucht man das Material enorm aufgrund der Hitzeentwicklung, die von der Reibung mit der Luft entsteht. Vom Wirkungsgrad der Energienutzung her betrachtet ist es jedoch ein Unsinn, nur knapp Mach 1 zu überschreiten, da der Einsatz eines Nachbrenners rund das 10- Fache an Treibstoff verbraucht als ein normales Triebwerk. So vielseitig wie die Luftfahrttechnologie auch sein mag, es gilt immer abzuwägen, für welche Zwecke was am vernünftigsten ist.



Bildmaterial/ Quellen:

Bilder:
der-werftverein.de
altavista.com/pictures
luftarchiv.de

technische Daten:
s-f-a.de
aboutfacts.net
Royal Air Force Museum London

Formeln/ Grundlagen:
Vorlesungen Systemphysik f. Aviatik, ZHAW
Skript; Aeronautical Science, QMU

Donnerstag, 12. August 2010

Der Raketenantrieb: Neue technologische Horizonte- altbekannte Schwierigkeiten

Seit den 40-er Jahren des 20. Jahrhunderts nutzt die Menschheit die Raketentechnologie für die fast grenzenlose Bewegung im dreidimensionalen Raum. Als schlagkräftige Waffen gewährleisteten sie der deutschen Wehrmacht monatelang eine militärische Ueberlegenheit, im Dienst der wissenschaftlichen Forschung revolutionierten sie die Erkundung des Weltraums. Durch die Sprengung mancher wissenschafts- und kriegstechnologischer Schranken wurde die Welt von Raketen in ein neues Zeitalter befördert.

Funktionsprinzip einer Rakete

Im Idealfall als möglichst luftwiderstandsfreier Flugkörper wird eine Rakete nach dem physikalischen Rückstossgesetz durch den Raum geschoben. Das Grundprinzip lässt sich durch den Impulsausgleich zweier sich von einander abstossenden Körper erklären: Wird eine Masse in eine Richtung abgestossen, erhält diese einen Impuls, während das abstossende O
bjekt sich einen Gegenimpuls in die andere Richtung zufügt. Z.B. ein fahrendes Schiff verschafft sich Impuls, indem es das Wasser zurückstösst bzw. dem Wasser einen Gegenimpuls versetzt. Das Gesetz kann in einem Flüssigkeitsbild veranschaulicht werden: Die physikalischen Gesetze werden in einem einfachen Flüssigkeitsbild (zwei Töpfe mit Wasser und einem Verbindungsschlauch) repräsentativ dargestellt. Die Breiten der Gefässe representieren die Massen, die Füllhöhen über bzw. unter der schwarzen "Null-Linie" stellen die Abstossgeschwindigkeiten der bewegten Körper dar. Je grösser der Impuls (Produkt von Geschwindigkeit mal Masse) in die eine Richtung wirkt, desto grösser ist der Gegenimpuls in die andere Richtung (im Bild blau eingefärbt). Der Raketenantrieb ist die einzige Technologie, um sich im leeren Raum fortzubewegen. Der Impuls kann durch beidseitige Massenverschiebung erfolgen, nach dem Prinzip einer Wasserrakete; Der Körper stösst einen Teil der eigenen Masse ab. Impuls kann aber auch durch einen Druck (1 Pa = 1 kg/m^2) erzeugt werden, der das Objekt forttreibt, ohne dass dabei die Abstossung einer Masse relevant ist. Letztere Methode ist viel effizienter und wird normalerweise angewendet. Da Raketenantriebe nicht mit Luftverdrängung arbeiten, konstruiert man Raketen möglichst aerodynamisch, mit einem tiefen cw- Wert (Luftwiderstandskoeffizient).

historische Entwicklung

Not macht erfinderisch:
Auch wenn in Deutschland bereits ab Mitte der 30-er Jahren ein Entwicklungsprogramm für die Raumfahrt gefördert wurde, wurden in diesem Bereich erst dann konkrete Fortschritte realisiert, als die Probleme schon eingetroffen waren.
Der Marschflugkörper Fieseler Fi 103:

Er war das umgangssprachlich als "Vergeltungswaffe (V1)" bekannte Vorgängermodell der modernen Rakete. Dieses unbemannte Flugobjekt ist nicht als Rakete im eigentlichen Sinne zu verstehen, da dieses Gerät nur unter ständiger Einwirkung des Luftwiderstandes fliegen konnte, daher brauchte sie für den Start auch eine Rampe, um unter ihren Tragflächen einen ausreichenden Luftstau zu erzeugen. Lenkungstechnisch war die V1 jedoch ein wichtiger Meilenstein in der Entwicklung der heutigen Rakete: Der primitive Autopilot war bereits in der Lage, das Ziel ungefähr zu treffen.

Im Wesentlichen arbeitet der Autopilot mit einem Gyroskop (Kreiselkompass, der sich unabhängig vom geomagnetischen Feld an der Rotationsachse der Erde orientiert durch das Gesetz der Drehimpulserhaltung (kg*m^2*s^-1)). Ausserdem ist ein Anemometer- Zählpropeller (ermittelt die geflogene Strecke durch den Luftstrom) vorne an der Spitze des Flugkörpers angebracht. Für den Schub sorgt das hinten oben angebrachte Verpuffungsstrahltriebwerk- eine für solche Zwecke sinnvolle Billigversion des "normalen" Flugzeugtriebwerks. Im Rumpf des Marschflugkörpers befinden sich zwei mit 150 bar Pressluft gefüllte Kugeln (im Bild hinter den Tragflächen zu sehen), welche den Verbrennungsprozess in Triebwerk aufrecht erhalten: Bei geschlossenen Jalousinen vorne wird das Treibstoff- Luftgemisch durch eine Zündkerze gezündet und das dadurch expandierende Gas nach hinten durch die Schubdüse geleitet. Nach diesem Vorgang sinkt der Ueberdruck im Triebwerk und geschwindigkeitsbedingt steigt er vorne an, was die Jalousinen öffnet und innen wieder für einen automatischen Luftstau sorgt. Objekte, die von einem Trägerflugzeug abgeschossen werden, können daher auf die Druckbehälter verzichten. Die Fieseler Fi 103 wurde im Jahr 1942 von deutschen Waffentechnikern und Aviatikern entwickelt. Propagandaminister Dr. Göbbels erteilte dieser Flugbombe den populistischen Namen "Vergeltungswaffe", da diese als Antwort auf die Bombardierung Hamburgs Hafen gegen britische Truppen in Einsatz kam. Als 1943 die A4- Rakete als zweite Vergeltungswaffe vorgestellt wurde, entschied man sich für die Abkürzungen V1 und V2. Die rund 2'200 kg schwere Fi 103 erreichte eine Geschwindigkeit von 574 km/h, 3 km Flughöhe und eine Reichweite von 370 km. Der Autopilot gewährleistete eine Treffsicherheit von 12 km. Das Flugobjekt war bestückt mit 847 kg Amatol (sehr effiziente Mischung aus TNT und Kunstdünger).



Die Aggregat- Serie:

Der eigentliche Durchbruch in der Raketentechnologie wurde kurz nach der Entwicklung der "V1" im norddeutschen Peenemünde realisiert. Nach den Modellen Aggregat 1,2 und 3, welche den erwünschten Anforderungen nicht entsprachen wurde der Senkrechtstarter A4 als "Vergeltungswaffe 2" vorgestellt. Diese ist eine der technologisch höchst entwickelten Raketen, die bisher gebaut wurden. Antrieb Für den Raketenantrieb muss eine explosive Mischung von 75% Ethylalkohol und 25% Sauerstoff zusammengefügt werden, bevor es in der Brennkammer gezündet und durch die Schubdüse ausgestossen wird. Dafür braucht es eine Pumpe, welche pro Sekunde 150 l Flüssigkeit fördert. Diese Pumpe wird mit einer Hochdruckturbine durch die Zersetzung von Calciumpermanganat und Wasserstoffperoxid angetrieben. Wasserstoffperoxid (H2O2) muss durch eine Kühlung mit komprimiertem Stickstoff transportiert werden. (Das Verfahren ist bekannt aus der U-Boot Technik: 2 H2O2 -> 2 H2O + O2 + Wärme). Wird dieses Gemisch schliesslich verbrannt, entsteht in der Düse eine Temperatur von 2'700°C, weshalb die Brennkammerwände mit Alkoholkanälen gekühlt werden müssen. Als erzielter Effekt herrscht dort ein Ueberdruck von 18 bar, was eine Schubkraft von 270N, im All sogar 300N bewirkt, also ein heute noch aktueller Wert.

Navigation

Am Scheitern der damaligen Funk- und Informatiktechnologie mussten anfänglich begangene Fernsteuerungsversuche als "nicht realisierbar" erklärt werden. Deshalb rüstete man diese Rakete mit einem Autopiloten (Lageregelung) aus, der mit Kreiselsteuerungs- und Schaltuhrtechnik arbeitet. Die Kreiselsteuerung besteht aus rotierenden Scheiben und nutzt das Prinzip der Drehimpulserhaltung, das besagt, dass jeder rotierende Körper zur Erhaltung der Rotationsrichtung bestrebt ist. So kann das unbemannte Gerät gezielt auf seine Reise geschickt werden. Die Schaltuhr bezweckt, dass diese Kreiselsteuerung 3-4 Sekunden nach dem senkrechten Start der Rakete sich in die Richtung so weit neigt, bis das Gerät die erwünschte Flugbahn antritt.



Steuerung und Flugbahnkorrekturen

Beim Versuch, einen Bleistift an seiner Spitze auf einem Finger balancierend aufzuheben, könnte man sich vorstellen, welche kinematische Probleme bei einem Raketenstart auftreten. Auch wenn eine Rakete möglichst symmetrisch konstruiert ist, wird ihre Flugbahn durch äussere Einflüsse schnell abgelenkt, was dauernd auskorrigiert werden muss. Sobald das Fluggerät durch seine Geschwindigkeit einen ausreichenden Luftstrom streift, werden die Steuerruder an den Leitwerkflügeln durch Servomotoren bewegt. In der Startphase, wenn das Flugobjekt noch keine ausreichende Geschwindigkeit hat, müssen die 4 Gasstrahlruder (im Bild rot eingefärbt) die Flugbahnkorrekturen übernehmen.

Materialansprüche

Die 14 m hohe, 12,5 t schwere Boden-zu-Boden-Rakete beschleunigt in der Startphase auf über 1'150 m/sek, also rund 3'700 km/h, bis sie sich auf über 100'000 m.ü.M im Weltall befindet. Dort neigt sie ihren Bug wieder in Richtung Erde und zielt das Feindesland im Sturzflug an, bei dem sie eine Geschwindigkeit von Mach 5 (über 5'000 km/h) erreicht. Das Material muss somit einerseits aufgrund der geflogenen Höhendifferenzen einen Druck- und Temperaturunterschied von 100'000 Pa, bzw. 300°C, sowie aufgrund der Eintrittsgeschwindigkeit in die Troposphäre, bei dem durch die Luftreibung an der Hülle Temperaturen von 600°C entstehen können, aushalten. Auch wenn Der Mantel aus massivem Stahl gebaut ist, die Flüssigkeitstanks doppelt bewandet und das ganze Objekt mit einem Kühlsystem ausgestattet ist, dürfen Sprengstoffe, die bei weniger als 200°C explodieren können, nicht mitgeführt werden. So ist auch die A4/V2 mit 1'000 kg Amatol ausgestattet, was bei diesem heftigen Aufschlag bemerkenswerte Spuren hinterlässt.

nicht realisierte Projekte

Während die Massenproduktion der erfolgreichen A4 von 250 auf 500 Stück pro Monat hätte erhöht werden sollen, wurden in der deutschen Raumfahrtstation in Peenemünde bereits weitere Projekte geplant und getestet. Nach den fallengelassenen Projekten A5- A7 galten die A8. A9 und die A10 als erfolgversprechend. Allerdings wurden diese Raumfahrtkörper aufgrund der für die Deutschen unangenehm werdenden Kriegslage nicht mehr realisiert, d.h. sie kamen nicht mehr über die Planungs- und Testphasen hinaus.

Die A8 wäre eine Trägerrakete für einen Satelliten geworden, der eine Langstrecken- Funkverbindung für Flugobjekte ermöglicht hätte. So hätte man die A4 (V2) funkgesteuert, um den eingeschränkt präzisen Autopiloten zu ersetzen. Weiter strebte man ein global vernetztes Satellitensystem an, wodurch man die Interkontinentalrakete A9 (mit der Trägerrakete A10 ins All geschossen) ans Ziel gelenkt hätte. Die A9/10 hätte man umgangssprachlich als "Amerika- Rakete" bezeichnet, da diese fähig gewesen wäre, Militärstützpunkte der nordamerikanischen Ostküste zu treffen. Die A8 hätte das Satellitensystem (geostationär- orbit) auf 36´000 km Höhe befördern müssen, da so genannte "low-earth-orbit" Systeme mit horizontal bewegenden Körpern schwer realisierbar waren.

Zukünftige Entwicklug

Ob GPS, Telephon- und TV- Uebertragung per Satellit oder die Beobachtung des Weltraumes mit Teleskopen und Raumsonden- Der Mensch ist mittlerweile geübt, die Raumfahrttechnologie für wirtschaftliche, militärische und wissenschaftliche Zwecke zu nutzen. Was vor gut 70 Jahren mühsam erprobt wurde, scheint heute spielerisch beherrschbar zu sein.

Wenn wie jedoch die neulich vom britischen Astrophysiker Stephen Hawking publizierte These betrachten, die den Menschen zum Leben ausserhalb der Erde aufruft, scheint offensichtlich, wie sehr die Technologie noch in den Kinderschuhen steckt. Gemäss Aussage des Physik-Prfessors müsse der Mensch in den kommenden 200 Jahren bereit sein, sich langfristig von der Erde zu entfernen und andere Planeten zu besiedeln, wenn er langfristig überleben will. Den engen Zeitplan von 200 Jahren stützt er auf die dem Ende zuneigenden natürlichen Ressourcen und den wachsenden ökologischen Probleme. Der Grundgedanke dieser Behauptung scheint logisch: Noch nie hat eine Spezies sich langfristig erhalten, wenn sie sich nicht mehr weiter ausbreiten konnte. Findet auch der Mensch keine neuen Lebensräume, wird auch er eines Tages nur noch in fossiler From übrigbleiben.

Aus diesem Aspekt hat sich die Menschheit kaum vom Anfangspunkt der Raumfahrtentwicklung fortbewegt. Die neuen Horizonte, die die Raumfahrt uns bisher geliefert hat, hat uns bisher nur zur Kenntnis gebracht, dass wir uns nach wie vor mit anfänglichen Problemen auseinandersetzen müssen.



Quellen:

-Vierteljahresheft für freie Geschichtsforschung, Ausg. 4/1999, Castle Hill Publishers, Bericht über Innovationen von Wernherr von Braun

-luftarchiv.de; Infos über Luftfahrt- und Waffentechnik
-publizierte Informationen des Imperial War Museum, London


Bildmaterial:
Stephan Riediker, London, 2010

Montag, 12. Juli 2010

Mondfahrt: Grundlage wissenschaftlicher Untersuchungen unserer Atmosphäre

Die Durchführung der Mondfarht als Grundlage der Naturwissenschaft soll hier genauer erklärt und aus unterschiedlichen Perspektiven betrachtet werden. Welche Grundkenntnisse dafür sind vorausgesetzt und welche liefert sie?


Gross war die Euphorie, als der NASA im Jahre 1969 die erste Mondfahrt gelang. Dieses Projekt war das Resultat einer erfolgreichen Kombination zwischen deutscher Raketen- und angelsächsischer Navigationstechnologie. Die Mondfahrt an sich selbst symbolisierte den westlichen Durchhaltewille gegen die Vorherrschaft der der Sovjet Union in Sachen Raumfahrt.

Für mich dient dieses Projekt nicht meinen politischen, sondern meinen naturwissenschaftlichen Interessen. Ausserhalb der Erde, in einer Umwelt mit fundamental anderen Grundbedingungen lassen sich Vorgänge beobachten, die auf der Erde als selbstverständlich wahrgenommen werden und sich daher nur schwer untersuchen lassen. Ich will hiermit nicht nur die Notwendigkeit der Raumfahrt betonen, sondern belegen, dass die Projekte tatsächlich auf dem Mond durchgeführt wurden. Aus diversen Aspekten lässt sich schlussfolgern, dass die Mission eines Raumfahrtprojektes nur auf einem Himmelskörper im All- z.B. auf dem Mond- realisierbar sind.
.
.
.


Strahlenbelastung ausserhalb der Erdatmosphäre

Ausserhalb der Atmosphäre ist die Erde von einer Magnetosphäre, dem so genannten "Van-Allen-Gürtel" umgeben. Es handelt sich dabei um eine Schicht, in der das Erdmagnetfeld die elektrisch geladenen Teilchen des Sonnenwindes ablenkt. Nur in den Polregionen kann ein Teil des Sonnenwindes bis unter die Exosphäre dringen, wo es unter idealen Bedingungen als Polarlicht sichtbar ist. Ein ungeschützter Mensch würde im Van-Allen-Gürtel tatsächlich getötet werden, wenn er sich lange genug dort aufhielte, da dort die Konzentration diverser, im All weit zerstreuten Strahlen besonders hoch ist. Hochempfindliche elektronische Geräte sowie an Bord befindende Lebewesen müssen daher durch eine ausreichend dicke Stahl- und Bleiwand geschützt werden. Je schneller ein Raumfahrzeug diese elektromagnetische Schicht durchdringt, desto geringer ist das Schadenrisiko seiner Ladung. Eine bemannte Rakete durchschiesst die Magnetosphäre etwa innerhalb einer Stunde.

Ausserhalb dieses Gürtels, also z.B. auf dem Mond ist ein Körper hauptsächlich bei direktem Sonnenlicht der aggresiven kurzwelligen Strahlung ausgesetzt. Da auf dem Mond diverse Extrembedingungen herrschen (Lichteinstrahlung, Temperatur, Vakuum,...), muss ein Schutzanzug ohnehin dermassen resistent konstruiert sein, dass er damit auch einen wesentlichen Teil der Röntgen- und Gammastrahlung abschirmt. Beispielsweise ist es auf dem Mond am Tag durch das Fehlen der Atmosphäre viel heller als auf der Erde, weshalb eine Helmscheibe mit einer Verdunkelungsschicht bedampft ist, was gleichzeitig auch einen gewissen Schutz vor anderer Strahlung bietet.


Verschienenen Studien zufolge gehen Astronauten ein erhöhtes Risiko an Spätfolgen ein, unter Anderem aufgrund dieser Strahlendosis. Allerdings sind davon auch viele andere Personenkreise betroffen, wie z.B. die Bordbesatzung von Langstreckenflugzeugen, die immerhin mehrere Stunden täglich rund drei viertel der gangen Luftmasse unter sich lassen, genau so sind Röntgenstrahlen nicht gerade eine harmlose Angelegenheit. Je nach Interessengruppe werden diese Probleme gerne unter- bzw. übertrieben, da diesbezügliche Ermittlungen schwierig sind, weil so gut wie jeder Mensch sich bei diversen Aktivitäten einer gewissen Strahlendosis dieser Art bereichert.
.
.


Extreme Lichtverhältnisse auf dem Mond


Wie im letzten Abschnitt angedeutet, scheint auf dem Mond die Sonne viel heller als auf der Erde, dies aufgrund des Fehlens der Atmosphäre. Nicht nur die Raumanzüge müssen abgedunkelte Scheiben haben, sondern sämtliche Photos, die dort gemacht wurden, mussten mit einer abgedunkelten Kamera gemacht werden, damit man überhaupt etwas erkennt. So haben Mondbilder grundsätzlich einen anderen optischen Schein, als es tatsächlich auf dem Mond aussieht, da man schwach leuchtende Objekte überhaupt nicht erkennt, wie z.B. der Sternenhimmel. Farbaufnahmen könnten, je nach verdunkeltem Lichtwellenspektrum einen verfälschten Farbton aufweisen und extrem helle Stellen leuchten so stark, dass bei einer Fadenkreuzkamera teilweise das Fadenkreuz überlichtet wird. Die Streuung des Lichtes erfolgt dort also vom Boden aus, was auch eine Veränderung der Schattierungsrichtungen zur Folge hat.

Nice to know: Nachts leuchtet "Vollerde" auf dem Mond rund 20 Mal so stark wie Vollmond auf der Erde, aufgrund der Grössenverhältnissen, Fehlen der Mondatmosphäre und der Lichtstreuung der Erdatmosphäre.

Wir können uns dadurch vorstellen, wie die Welt für uns aussehen würde, wenn der Planet nicht von einer Gashülle umgeben wäre, bzw. welches Weltbild sich für uns ergebe bei einer Veränderung ihrer Dicke, was beispielsweise für eine allfällige Marsmission interessant sein könnte oder bei Veränderungen unserer Erdatmospähre.
.


Bewegung eines Körpers im Vakuum


Durch das Vorhandensein der Luft ist man sich gewohnt, dass sich bestimmte Bewegungen nach einem gewissen Schema abspielen. So kann es manchem sehr befremdend vorkommen, dass es auf dem Staubigen Mondboden bei der Apollo11- Landung und beim Start keinen grossen Staubwirbel gab, den man bei diesem immerhin 14,5 Tonnen schweren Objekt erwarten könnte. Dies lässt sich jedoch durch eine einfache Rechnung erklären: Die Gravitationskraft auf dem Mond beträgt etwa einen Sechstel derjenigen der Erde, 14,5 t wiegen dort also gerade mal 2,4 t. Somit wird eine Kraft von 23'500 N benötigt, um die Kapsel abzuheben, angetrieben von einer Schubdüse mit einer Fläche von 1,47m². Daraus folgt, dass der Druck der aus der Schubdüse austretenden Gase etwa 1'600 kg pro m² entspricht, was etwa 16% des Luftdrucks auf Meereshöhe entspricht (1 bar = 100'000 N/m²). Zu berücksichtigen ist auch, dass im Vakuum die aus der Düse austretenden Gase schneller in alle Seiten expandieren als es auf der Erde der Fall wäre.

Nur wenige Schritte vom Landeplatz entfernt zeigte die Mondoberfläche deshalb keine Veränderungen mehr aufgrund des Abgasstrahls des Mondlandegerätes. Das heisst, selbst die Schuhabdrücke der Astronauten blieben so gut wie vollumfänglich erhalten. Dies ist eine Folge der Tatsache, dass sich die Staubkörner, wenn sie weggeschleudert werden, in einer idealen Parabel- Laufbahn wieder zu Boden bewegen und somit nicht lange herumschweben und sich weiträumig verbreiten. Exakt das kann man am Mondfahrzeug beobachten, das durch die Mondstaubwüste fährt: Das schwerere Geröll und der feine Staub fällt bei den Rädern im Gleichtakt in der selben Bahn hinunter, was unter Einfluss einer Gasschicht nicht möglich wäre.

Das Bewegen in einem solchen Druckanzug ist extrem schwerfällig, da durch die Druckunterschiede zwischen aussen und innen der Anzug wie eine Aufgeblasene Hülle wirkt. Wenn man bedenkt, dass wir auf Meereshöhe einem Druck von rund 10'000 kg pro m² ausgesetzt sind, das der Organismus von Natur aus "von innen" ausgleicht, kann man sich vorstellen, welcher Ueberdruck im menschlichen Körper herrschen würde, wenn er sich ohne Schutzhülle im All befände. So war auch beim Aufstellen der US- Fahne zu beobachten, wie schwerfällig sie den Masten in den Boden rammten. Da nach amerikanischer Tradition eine Fahne stets so aussehen sollte, als würde sie im Wind wehen, befestigten sie diese mit einer horizontalen Stange. So kann man am kontinuierlich auspendelnden Flattern der Fahne sehen, wie mühsam der Mast in den Boden gestossen werden musste.
.

Untersuchung des mitgenommenen Mondmaterials

Als Untersuchungsmaterial wurde total rund 380 kg Mondgestein auf die Erde gebracht. Einerseits konnten diverse Mineralien wie Tranquilityit und Armalcolit festgestellt werden, also Material, das durchaus auch auf der Erde zu finden ist. Es wurde aber auch das nur bei fehlender Atmosphäre in hohen Mengen auffindbare 3He- sowie weitere teilweise vorher unbekannte Isotope wie das Neptunium 237Np ermittelt. Das Gestein enthält auch einen ungewöhnlich hohen Anteil an Uran 235U und kurzlebige radioaktive Isotope, verursacht durch die permanente Bestrahlung im All. Damit unterscheiden sich die Mondgesteinsproben chemisch vom Material, welches auf der Erde vermutet werden kann. Ausserdem sind die Mondgesteine mit Einschläge von kleinen Meteoriten in der Grösse on wenigen Kubikmillimetern übersäht- ein Effekt, der auf der Erde in den letzten 4 mia. Jahren dank der Atmosphäre nicht so hätte stattfinden können, da Körper dieser Grösse verglühen würden. Der Mondstaub besteht daher auch aus unverändertem Meteoritenstaub, den es überall gibt und beim Eintritt in die Erdatmosphäre verdampft.
Auch fehlt dem Mondgestein die auf dem Erdgestein übliche Wasserhülle, da das Wasser im Vakuum vollständig verdunstet. Aus den Proben der Apollo-Missionen konnte gemäss Publikation der ETH Zürich das Alter des Mondes auf etwa 4,5 mia. Jahre bestimmt werden.
.


.
Steuerung des Gerätes durch Raketentechnik


Ein Raketenstart ist ein komplexes Zusammenspiel kräfteausgleichender synchronisierter Gegenimpulsströme zu diversen auf den Schwerpunkt des Flugobjektes einwirkenden Kräfte. Zu berücksichtigen ist, dass der Flugkörper nicht nur durch den Wind von aussen, sondern auch innerhalb der Kabine durch sich bewegende Menschen die Laufbahn schnell ändert, sollte der Antrieb dies nicht ausbalancieren können. Bevor die deutsche Wehrmacht anfangs der 1940-er Jahren in Peenemünde ihre Raketentests durchführte, mussten die Raketenwissenschaftler technische Lösungen finden, den auf den Schwerpunkt einwirkenden Kräften permanent entgegenzusteuern, da ohne laufende Korrektur der Flugrichtung die Raketen ihr Ziel nur ungenau trafen, da ihre Flugbahn jeweils vor dem Abschuss berechnet und festgelegt wurde. Um letztendlich den steuerungstechnischen Anforderungen der Raumfahrt gerecht zu werden, brauchte es jedoch gut 2 Jahrzehnte technologische Weiterentwicklung. Je länger die Rakete durch den Luftraum fliegt, desto besser muss sie die von aussen auf sie einwirkende Kräfte mechanisch auskorrigieren. Je länger eine Rakete im All unterwegs ist, desto relevanter ist die Auswuchtung ihre internen Kräfte.





Grundlage der Raketentechnik: die erweiterte Version der Aggregat 4 (A4 oder V2- Rakete) aus dem Jahr 1945 war die erste weltraumtaugliche Rakete, deren Präzision sich aufgrund der damals ungenügenden Computer-, Navigations- und Telekommunikationstechnik in Grenzen hielt. Dies war jedoch nicht im wesentlichen Sinne entscheidend für den Verlauf des Krieges.
(oberes Bild: Fi 103- bzw. V1-Rakete 1942/ unteres Bild: Mondfahrt 1969).




Quelle und Bildmaterial


Vierteljahresheft für freie Geschichtsforschung, Ausgabe 4/02;
Verlag: Castle Hill Publishers (GB)

wissenschaftliche Grundlagen von Germar Rudolf*
.

*Der deutsche Chemiker Germar Rudolf befasste sich mit verschiedenen historischen Ereignissen des 20. Jahrhunderts und konnte mit ähnlichen Argumenten, die ich hier dargelegt habe, beweisen, dass die Mondfahrt tatsächlich stattgefunden hat, womit die "Verschwörungstheorie" der Mondfahrtgegner widerlegt wurde. Immerhin hat die NASA mehrere tausend und in rund 20'000 Zulieferungsfirmen total über 300'000 Mitarbeiter beschäftigt, womit man sich vorstellen kann, wie kompliziert es wäre, wenn man ein solches Projekt als geheime Mission durchführen wollte oder wenn sonst etwas von der Oeffentlichkeit kaschiert würde.

Samstag, 22. Mai 2010

Die Atmosphäre der Erde: Ihre Entwicklung und Bedeutung

Grundliegendes:

Die Atmosphäre der Erde wird nach verschiedenen Kriterien in unterschiedliche Sektoren, deren Grenzen auf bestimmter Höhe über Meeresspiegel verlaufen, aufgeteilt. Die Aufteilung nach den thermogradientalen Eigenschaften bildet von innen nach aussen aufgezählt folgende fünf Sphären (gr. Kugeln): Troposphäre, Stratosphäre, Mesosphäre, Thermosphäre und die Exosphäre.
Aus dem Aspekt der chemischen Zusammensetzung betrachtet besteht die Atmosphäre aus drei verschiedenen Gastypen: Zwei homogene Gemische (Homosphären)und dazwischen eine heterogene Schicht (Heterosphäre). Der elektromagnetische Ladungszustand lässt die Geosphäre noch in eine ungeladene Schicht, in eine Ionosphäre und in eine Magnetosphäre unterteilen. Letztere gehört aber nicht mehr zur Atmosphäre, da auf einer Höhe von über 1'000 km ü.M. kein atmos (gr. Dunst) mehr vorhanden ist.
geosphere



Erklärungen zum Diagramm:

Der obere Rand zeigt die Temperatur in K und Celsius an, der linke die Höhe in m.ü.M. und der untere Rand den Druck in Pa. Der dargestellte Wertebereich befindet sich zwischen 1 und 101'300 Pa, 0 und 280'000 m.ü.M., (-90)°C und 1'700 °C und umfasst somit die untere Homosphäre (Tropos-, Stratos- und Mesosphäre) sowie den unteren Viertel der Heterosphäre (ca. Hälfte der Thermosphäre). Dünn und schwarz ist die Druckkurve in der Homosphäre eingezeichnet, welche in der Heterosphäre in eine dicke Linie übergeht. Standardmässig ist auch die schwarz-rote Temperaturkurve mit konstanten Werten zwischen 5 und 95 km ü.M. eingezeichnet, welche ganz unten einen Wetter- und in der Thermosphäre eine Sonnenwindabhängigen variablen Verlauf annimmt.

schwarze Kurve: Luftdruck

dicke rote Kurve: Lufttemperatur

(Auffälig dabei sind die Variationen in unterschiedlichen Höhen, dies erklärt sich aber mit der chemischen Zusammensetzung der Luft)

Zahlen am linken Rand: Höhe in Meter über Meer



Entstehung der Erdatmosphäre:

Etwa 4,5 mia. Jahre vor unserer Zeitrechnung ist das Planetensystem der Heliosphäre so weit abgekühlt, dass einige von den Himmelskörpern eine Oberfläche im festen aggregatzustand bildeten. Die Erde hatte in dieser Phase eine wesentlich kleinere Masse als heute, aber eine ausreichende Gravitationskraft, die so genannte "Uratmosphäre" aus den flüchtigen Gasen an sich zu binden. Diese Uratmosphäre bestand aus Wasserstoff (H2), Helium (He), Methan (CH4) und aus Ammoniak (NH3) und war nicht, wie manche Leute irrtümlich glauben, der Ursprung unserer heutigen Atmosphäre, sondern die Moleküle dieser Gase wurden durch diverse Sonnenstrahlen gespalten und mit dem Sonnenwind kontinuierlich abgetragen, bis kaum noch etwas auf der Erde blieb. In den nachfolgenden hundert millionen Jahren entstand eine zweite Atmosphäre, aus deren Grundlagen unsere heutige besteht. Man kann davon ausgehen, dass sie aus den Gasen bestand, die in Vulkanausbrüchen freigesetzt werden: 80% Wasserdampf (H2O), 10% Kohlendioxid (CO2), 7% Schwefelwasserstoff (H2S), der Rest Wasserstoff (H2), Kohlenmonoxid (CO) und einige andere Spurengase wie Ammoniak, wovon sich durch eine photochemische Reaktion (UV- Strahlung) Stickstoff (N= Nitrogenium) abspaltete. Die Grundlage für die Entstehung der Gewässer war gegeben, wo sich vor etwa 3.5 mia. Jahren die Cyanobakterien bildeten, welche aus dem H2O Sauerstoff abspalteten, der sich zuerst mit Eisen zu Rost und danach mit Stickstoff zu Luft bindete.
Durch das Zusammenspiel der entstehenden Luft und der UV- Strahlung bildeten sich verschiedene Luftschichten mit ihren Eigenschaften, welche das Leben ausserhalb des Wassers ermöglichen. Eine von ihren Eigenschaften ist es, eindringende Fremdkörper zu verglühen und die damit entstehenden Gase teilweise durch biochemische Prozesse regelrecht auf den Boden zu schaffen.
Die Erde wird auf diesem Weg täglich mit rund 110 Tonnen Meteoritenstaub bereichert, was abzüglich der entweichenden Gase eine jährliche Massenzuwachsrate von etwa 40'000 Tonnen entspricht. In den letzten 4,5 mia. Jahren resultierte daher einen Zuwachs von nur 180'000 mia t und mit einer Durchschnittsdichte von 2,5 t pro Kubikmeter (Meteoritenstaub besteht zum wesentlichen Teil aus Silizium) einen Volumenzuwachs von 72'000 Kubikkilometer. Dieser Massenstrom ist im Vergleich zur totalen Erdmasse 5,97*10^21 t, d.h. 5,97 mio. trillionen t vernachlässigbar( durchschn. Dichte der Erde: 5,1 t/m^3), jedoch enspricht dies mehr als einen Drittel der rund 5,1*10^15 t (5,1 trillionen t) Masse an Atmosphärengase. Die Erde und vor Allem ihre Atmosphäre ist dank biochemischen und astrophysischen Prozessen laufenden Veränderungen ausgesetzt.


Chemische Zusammensetzung der Atmosphäre:

In der unteren Homosphäre, also bis 80'000 m.ü.M. ist das Luftgemisch zum grössten Teil konstant und besteht aus Volumenanteilen von 78% Stickstoff (N2), 21% Sauerstoff (O2), 0.9% Argon (Ar) und 0.1% Spurengase. Kohlenstoffdioxid ist eines dieser Gase und ist mit einem Durchschnittswert von 0.038 Voluen-% je nach Höhe variabel wie das Ozon (O3).
Die Dichte von Luft lässt sich durch die molaren Massen ihrer Bestandteile und dem Molvolumen des idealen Gases berechnen: Molare m von N2: 28, von O2: 32, mol-V: 22.4138.
Es gilt bei 273,15 K und 101'325 Pa folgende Rechnung: ((0,78*28+0,21*32+0,01*40)/22,4138)= 1.29. Das Gewicht der Luft beträgt also 1.29 kg pro Kubikmeter.
Wenn man jetzt auf die Idee kommt, die selbe Rechnung mit dem CO2 zu machen (C hat die molare m von 12), kommt man auf eine Dichte von total 1,9. Das heisst, CO2 sinkt ab und befindet sich hauptsächlich in tieferen Lagen, wird aber konvektiv durch Wetter- und Klimavorgänge aufgewirbelt und verbreitet.
Ozon ist ein Gas, welches aus Sauerstoff unter Einwirkung von UV-Strahlen entsteht und diese gleichzeitig absorbieren. Das heisst, in den oberen Luftschichten bildet sich das Ozon, welches die UV-Strahlen absorbiert und die unteren Schichten davor schützt. UV-Strahlung, kleiner als 240 nm wandelt 3 O2- Moleküle in 2 O3 Moleküle, UV-Strahlung, die grösser als 240 nm ist, macht den umgekehrten Prozess. Kurzwelligere Strahlen werden von O3 absorbiert, während langwelligere Strahlen durchgelassen werden, was in der Natur zum ausgewogenen Verhältnis von O2 und O3 führt. O3 hat ausserdem die Eigenschaft, elektromagnetische Strahlung in Wärme umzuwandeln, was das Phänomen erklärt, dass es im oberen Bereich der Stratosphäre, wo die O3- Konzentration am höchsten ist, die Temperatur trotz extrem geringer Luftdichte auf 0°C ansteigt. Da kann man sich einmal vorstellen, wieviel Wärmepotential in einem Mol O3 stecken muss. Erst in der Mesosphäre, wo der Druck auf unter 0.1% des Meereshöhendruckes fällt, ist der Temperaturgradient pro Höhe wieder Rückläufig. Nicht zu vergessen ist, dass sich die ganze Mesosphäre in der Homosphäre befindet, d.h. das Gemisch ist rösstenteils konstant, es handelt sich also nur um kleinste Aenderungen des O3-Gehalts, was offensichtlich den Temperaturverlauf dermassen beeinflusst.
In der Heterosphäre (ab Thermosphäre bis Ende Exosphäre (ca.500'000-1'000'000 m.ü.M.)) trennen sich die Teilchen je nach Masse. Im unteren Bereich der Thermosphäre befindet sich mehr Sauerstoff, darüber etwas mehr Stickstoff und die Spurengase weichen nach oben. Die wenigen Wasserstoffatome, die durch die Ozonschicht aufsteigen konnten, werden in der Regel durch den Sonnenwind ionisiert und verlassen das Gravitationsfeld der Erde, da sie zu wenig Masse besitzen. Die abweichenden Wasserstoff- und Heliumatome bilden ausserhalb der Heterosphäre wieder eine Homosphäre, die durchschnittliche Bewegungsfreiheit der einzelnen Atome beträgt aber meistens mehrere Kilometer. Die obere Homosphäre (ab etwa 1'000 km ü.M.) ist also de facto ein Vakuum.


Die physischen Eigenschaften der Atmosphäre:

Um die physikalischen Eigenschaften der Atmosphäre zu analysieren, ist vor Allem der Druckgradient aussagekräftig. Durch die Betrachtung der Druckkurve innerhalb der Homosphäre lässt sich die gesamte Masse der Luft und ihre Verteilung auf der Erde berechnen. Besonders wenn 99,9% der gesamten Luftmasse sich in der unteren Homosphäre befindet, können darüberliegende Luftschichten für physikalische Berechnungen weitgehendst vernachlässigt werden. (In der Heterosphäre verhält sich der Druckgradient nicht linear oder progressiv, was ich in der Graphik oben mit der Darstellung als dicke Linie am linken Rand zu symbolisieren versuchte). Für atmosphärenphysische Berechnungen bezieht man sich aber nur auf die Werte in der Homosphäre.

Luftverteilung:
Der Luftdruck halbiert sich pro 5'500m Höhenzunahme, er hat also auf der normalen Reisehöhe von 11'000 m etwa 25'000 Pa, es befindet sich also 3/4 der gesamten Luftmasse unterhalb dieser Höhe. Dem zu Folge ist der Luftdruck auf der Höhe von 5'500 m.ü.M. als Mittelwert zu betrachten, womit sich die durchschnittliche Luftdichte- und somit auch die totale Luftmasse der Erde berechnen lässt. Die Zahlen beruhen auf den Werten der geographisch mittleren Breitengrade
(um N/S 45°), da die Dicke der Atmosphäre je nach Region variiert (in den Polarregionen ist sie etwa halb so dick als am Aequator). Der Luftdruck am Boden ist dadurch aber nicht beeinflusst, da den äusseren Luftschichten am Aequator mehr Gravitationskraft an die Centrifugalkraft abtreten als in den Polargebieten. Die totale Luftmasse berechnet man mit der Luftdichte (1,29 kg/m^3) mal die Höhe des halben Luftdruckes mal Oberfläche der Erde, das ergibt total 5.1*10^18 kg.

Thermodynamische Eigenschaften:
Wie im Diagramm dargestellt ist, unterteilt man die Atmosphäre in verschiedene Sektoren, die vor Allem von ihren Temperaturgradienten abhängen. Auffällig sind auf den ersten Blick die enormen Temperaturunterschiede, welche unter Umständen bis zu 2'000°C betragen können. Sicher ist es Sinnvoll, die Atmospärenschichten nach diesem Kriterum zu unterteilen, da sich somit vieles über ihre Gaszusammensetzung herauslesen lässt. Fügt man aber zur Temperaturkurve eine Druckkurve in die Graphik ein, relativiert sich die Bedeutung der Temperaturkurve. Für die Atmosphärenphysik und ihrer technischer Nutzung ist der Verlauf der Druckkurve viel bedeutender als die Temperaturkurve.
Das fälschlich angenommene Weltbild, in der Thermosphäre, wo es ja so heiss ist, verglühen die eindringenden Meteoriten, wird erst bei der betrachtung des Druckverlaufes aufgehoben. Es stimmt zwar, dass etwa ab Beginn der Heterosphäre, also oberhalb der Ozonschicht, die elektromagnetischen Strahlungen der Sonne die ungeschützten O2-Moleküle so stark zum schwingen bringen, dass man ihnen anhand ihrer Bewegung eine Energie zuordnen kann- womit man ihnen eine hohe Temperatur zuschreibt, man würde diese aber kaum messen können, da der Druck so klein ist, dass dort schon fast Weltraumtemperaturen von -27o°C herrschen. Dort verglühen also keine Fremdkörper, die auf die Erde eindringen, sondern dieser Prozess geschieht erst in der Mesosphäre, wo die Temperatur bis auf -90°C fällt. Die mit 40- 70 km/s auf die Erde fliegenden meistens wenige Gramm schweren Partikel erzeugen durch ihre Reibung am O3 eine so starke Erwärmung, dass sie verglühen und dabei das umgebende Gas ionisieren, was in der Dunkelheit als kurzes Aufleuchten sichthar ist.

Kinematischer Einfluss der Atmosphäre auf die Erde:
Schliesslich ist noch auf die Frage einzugehen, was die Atmosphäre rotationsmechanisch für Auswirkungen auf den Planeten hat, da die veränderten Radien des Körpers ein anderes Massenträgheitsmoment verursachen.

Meine Behauptung ist es, dass es möglich ist, durch einen erhöhten Ausstoss eines Gases die Rotation der Erde künstlich zu beeinflussen: Ein bekanntes Thema ist die Emission des Atmosphärengases Kohlenstoffdioxid (CO2). Ich will die These kinematisch belegen, dass sich durch das künstliche Freisetzen des bisher im Boden befindenden Kohlenstoffes der Massenschwerpunkt der Erde (durch Massenanreicherung der Atmosphäre) verschiebt, sich das Massenträgheitsmoment ändert und die Winkelgeschwindigkeit abnimmt, was die Tage verlängern wird.
Die Erde hat eine totale Masse von 5,97*10^24 kg, einen Radius von 6'379'500 m (ohne Atmosphäre) und entspricht einer gefüllten Kugel mit einer Dichte von 5'100 kg/m^3. Das Massenträgheitsmoment lässt sich somit berechnen: (2/5)*5.97*10^24*6'374'000^2= 97'019'367'888*10^27 kg/m^2. Das Drehmoment ist (2*pi*rad)/(24*3600)=0.000072722 rad*s^-1. (Das Objekt dreht sich ein Mal pro 24*3600 s um 360°). Multipliziert man diese beiden Ergebnisse, erhält man den Drehimpuls L. Das selbe macht man mit der Masse der Luft, einfach mit der Formel einer Hohlkugel ((3/2)*m*r^2), Masse der Luft ist 5,1*10^18 und der Radius ist 5'500 m mehr, da der Schwerpunkt der Luft auf der Druckhöhe von 50'000 Pa liegt. Die Impulskomponente der Luft macht 1/701'142 dessen der ganzen Erde aus und wird davon subtrahiert. Gemäss Medienberichten stösst der Mensch jährlich rund 36,3 Gigatonnen CO2 aus, wovon Kohlenstoff C einen Massenantel von rund 9,1 Gigatonnen hat. Daraus berechnet man den Massenträgheitsmomentabbau des festen Erdkörpers und den Zuwachs zur Luftmasse, beachtet den Schwerpunkt der Atmosphäre und man erhält somit ein neues totales Massenträgheitsmoment J, welches man durch den Drehimpuls dividiert, was die neue Winkelgeschwindigkeit ergibt. Man erhält anstatt 0.000072722 rad*s^-1 neu 0.000072719 rad*s^-1, was einem Quotient von 1.00004 entspricht, woraus man schliessen kann, dass durch diese Massenverlagerung eine Umdrehung der Erde um 0.004% länger geht, der Tag hat dann also nicht mehr 86'400 Sekunden, sondern um 3.456 s mehr.
(Vgl. Situation mit einer rotierenden Eiskunstläuferin, die durch das Ausstrecken der Arme an Rotationsgeschwindigkeit verliert).



Zur Veranschaulichung kann unter Umständen die Darstellung eines Flüssigkeitsbildes dienen: Das Volumen des Fluides soll den Drehimpuls (L) representieren, die Höhe die Winkelgeschwindigkeit (omega) und die Breite das Massenträgheitsmoment (J). Hier ist ersichtlich, dass im Gefäss mit dem schmaleren J bei gleicher Kapazität die Höhe "omega" grösser ist. So verdeutlicht man das kinematische Verhalten in der Rotationsmechanik.




Quellen:

(chemische und physikalische Grundlagen):
- Meteorologie: Karl Heinz Hack "Aviation Meteorology"/ Vorlesungen und Skript Dr. Neininger

- Klett "Formeln und Daten"
- Prof. Maurer: Vorlesungen und Systemdesign

Zahlenwerte stammen aus verschiedenen Quellen, teils eigenen Unterlagen, Projekten, etc., womit sich die Genauigkeit in Grenzen halten kann.


Dienstag, 11. Mai 2010

Stirling- Motor: Effizientere mechanische Nutzung des thermodynamischen Energieaufwands

Beweggrund zur Innovation:


Begleitet vom wachsenden CO2- Problem drängt uns die Sorge um die zukünftige Energieversorgung zur Hinterfragung unseres Lebensstils.


Karrierenfördernd haben Politiker es verstanden, Sympathien zu ernten, indem sie dem ökologischen Problem durch billige Scheinlösungen entgegenwirken wollen: Linke "Weltretter" vertreten die These, der Staat solle dies und jenes tun, hauptsache der einzelne Bürger hat genau so wenig zu sagen wie zu denken, während Konservative den Lösungsansatz bevorzugen, andere Staaten seien Schuld daran und diese müssen sich darum kümmern.

Da unsere rote Medienlandschaft in der Debatte zwischen diesen beiden Fronten keinen Raum für interessierte, verantwortungsbewusste und selbst handelnde Menschen bieten, ist es angebracht, deren Standpunkt hier zu vertreten.


So lässt man die Frage in den Vordergrund rücken, wie der normale Haushalt, der eigene Produktionsbetrieb, das Büro und der einzelne Landwirtschaftsbetrieb die Energie effizienter nutzen können. Genau so wie sich der Bedarf an fossilen Energieträgern stark reduzieren lässt, wenn man Oelheizungen durch Sonnenkollektoren ersetzt, steckt in zuverlässig funktionierenden Stirling-Motoren ein enormes Energiespar- Potential.



Funktionsprinzip eines Stirling- Motors:


Die Dampfmaschine von I. Newton aus dem 18. Jahrhundert sicherte England einst die unantastbare Weltmacht. Ihr Funktionsprinzip bestand darin, ein thermisches Potential in eine mechanische Leistung umzuwandeln. Durch die Expansion von Wasser bei Wärmezufuhr ermöglicht das "delta_T" (Temperaturdifferenz zwischen innen und aussen des Systems) eine Verschiebung des Kolbens. Nach der Expansion wird der Dampf wieder herausgelassen und das Schwungrad lässt den Prozess wieder von vorne beginnen. So wird die fortlaufende Bewegung aufgebaut. Der Wirkungsgrad hält sich allerdings stark in Grenzen, weil die thermodynamische Leistung zur Hälfte des Prozesses nicht genutzt wird und die Wärme im abgelassenen Dampf aus dem System verloren geht.


Diese Tatsache brachte Robert Stirling aus Schottland im Jahre 1816 auf die Idee, den ganzen Prozess in einem geschlossenen System durchlaufen zu lassen. Er erfand eine Wärmekraftmaschine, in der ein Gas bei hoher Temperatur Entropie aufnimmt und bei tiefer Temperatur wieder abgibt.



Grundsätzlich funktioniert ein solcher Stirling- Motor mit zwei gekoppelten Zylindern: Der eine bildet das Wärme- der andere das Kältebad. Zu erst wird im Wärmebad (Heizkessel) ein Gas erhitzt, was dort eine Volumenausdehnung bewirkt. Der Kolben im Kältebad verdrängt das Gas zuerst richtung Heizkessel. Nach halber Expansion des Heizkessels wird es vom Kältebad wieder angesaugt, bis dieser seine volle Grösse erreicht hat (zu diesem Zeitpunkt hat das Kältebad sein halbes Volumen erreicht). Danach wird das Gas im Heizkessel wieder komprimiert, der Gasdurchfluss ist blockiert und die konstante Gasmenge expandiert im Kältebad auf das maximale Volumen, womit dort eine Abkühlung erzeugt wird. Zwischen den beiden Zylindern befindet sich ein Regenerator mit einem Wärmetauscher, der diese "Kältemenge" aufnimmt und dem Heizkessel zuführt, was die Rückverschiebung dieses Kolbens erleichtert (isotherme Kompression). Das abgekühlte komprimierte Gas im Heizkessel erreicht somit sein Minimum an Volumen, das Kältebad hat dann wieder sein anfänglich halbes Volumen und der Prozess beginnt von vorne. So ist dieser Kreisprozess um einiges effizienter als sämtliche andere Wärmekraft- Maschinen.



die vier Stirling- Kreisprozesse:

Der Stirling- Motor arbeitet mit isothermen und isochoren Prozessen. Isotherm bedeutet, dass die Temperatur konstant bleibt und isochor bedeutet die Konstanthaltung des Volumens.

1. isotherme Expansion im Heizkessel

2. isochore Abkühlung im Regenerator

3. isotherme Kompression

4. isochore Erwärmung

Könnte man in Zukunft für die Stromproduktion solche Stirling- Motoren einsetzen, liesse sich der fossile Energieverbrauch ohne zusätzliche Einsparungen signifikant senken. Der Grund, wieso in den letzten knapp 200 Jahren gerade mal ein paar hundert solche Objekte realisiert wurden lässt sich mit Komplikationen der Materialeigenschaften erklären. Die Kolben und die Wände der Zylinder erreichen nicht so schnell eine ausreichende Temperaturänderung wie das Gas. Es ist deshalb kaum möglich, ein zuverlässig arbeitender Stirling-Motor zu bauen, der den idealen Prozess einwandfrei durchläuft. Die versuchsweise realisierten Motoren fallen durch ihre häufige Leistungsaussetzungen auf, womit ein solches Produkt noch nicht vermarktungstauglich ist. Der Stirling- Motor ist jedoch ein interessanter Ansatz, thermodynamische Gesetze in ein realistisches Projekt umzusetzen.

Quellen:

- Thermodynamik Systemdesign: Vorlesungen Prof. Maurer/ website: systemdesign.ch

- Berechnung Kurve: Modellierunsprogramm "Berkeley Madonna"

Montag, 19. April 2010

Vulkan in Island: Weiträumige Beeinträchtigung des Luftraumes

Flughafeninfos ZRH:
http://www.flughafen-zuerich.ch/desktopdefault.aspx/tabid-42/



Geophysische Situation in Island

Nicht nur die kulturelle und historische Einzigartigkeit Islands machen die nordatlantische Insel zum belieben Reiseziel, sondern auch ihre geologische Besonderheit fasziniert viele Besucher. Die Insel liegt auf der Grenze der nordamerikanischen- und eurasischen Kontinentalplatten, etwa ein Viertel liegt auf der amerikanischen und drei viertel auf der europäischen Platte. Dazwischen befindet sich ein ca. 7 km breiter Graben, der sich durch die ganze Insel erstreckt. (Zur Orientierung: Der einst für die Germanen historisch bedeutende Ort Þingvellír befindet sich etwa auf der mittleren Längsachse des Grabens, im südlichen Teil der Insel).


Photo: Stephan Riediker

Kleinste vulkanische Aktivitäten sowie immer wiederkehrende kleine Erdbeben gehören dort fast zum Alltag, die geothermische Energie wird von Islands rund 300'000 Einwohnern wirtschaftlich verschiedenartig genutzt. Was jedoch auch zum Naturspektakel gehört, sind die seltenen, jedoch sicher eintreffenden Eruptionen, welche alle paar Jahrhunderte die Eisdecke der Gletscher sprengen und eine beträchtliche Menge Asche in die Atmosphäre ausstossen.
Das Gefahrenpotential dabei ist nicht primär die Explosion des Ausbruches selbst, sondern die Folgen danach: Das Schmelzwasser des Gletschereises verursacht einerseits einen Wasserstrom, der unter Umständen eine grössere Wucht hat als der Amazonas, eine Gefahr, die sich lokal beschränkt. Bedenklicher ist jedoch die Gefahr der Aschenwolke, deren schwereren Partikel sich auf isländischen Boden absenkt und die Menschen (gemäss Aussagen der zuständigen Behörden Islands) mit ungesundem Staub belasten kann. Bisher wird die Aschenwolke vom Wind in Richtung süd-osten geblasen, wodurch die Insel vorerst "sauber" bleibt. Die leichteren Partikel bleiben aber viel länger in höheren Schichten der Atmosphäre und werden mit dem Jetstream und anderen Winden weiträumig verbreitet und bilden auch in kleiner Konzentration einen Störfaktor für die Aviatik.

Angesaugt vom Triebwerk, erhitzt und komprimiert können die Aschenteilchen (sog. Aerosole) verklumpen und den Kanal zwischen Mantel und Düse verstopfen. Ausserdem wird der Druck im Staurohr beeinträchtigt, was zu falschen Höhenmessergebnissen führt. (Unmittelbar beim aktiven Vulkan selbst kann eine hohe Konzentration des Rauchs die Qualität der Radarmessungen und der Funkverbindungen erheblich verschlechtern, was aber dermassen Weiträumig kein Thema ist). In der Aviatik geht man davon aus, dass die Gefährlichkeit der Schmutzpartikel ab einer Konzentration von 2 µg pro kg Luft massiv zunimmt. Wo sich eine solche Konzentration befindet, muss mit verschiedenartigen Modellen ermittelt werden.

Jedenfalls ist durch dieses natürliche Ereignis der Luftverkehr europaweit massiv beeinträchtigt, weshalb es sich lohnt, sich über die aktuelle Lage des Flugverkehrs zu informieren, um Unannehmlichkeiten allenfalls vermeiden zu können.

Wetter in Europa

Das Flugwetter in Europa wird zwischen Mai und Juni 2010, bei Winden aus nordwestlicher Richtung, von den weiteren Aktivitäten des isländischen Vulkans "Eyjafjallajökull" bestimmt werden, weil sich durch die Eruptionen sowohl Vulkanstaub und feinste quarzhaltige Vulkanasche in einer Höhe von 5'000 bis 11'000 m.ü.M. "ablagern", bzw. länger dort schweben werden.

Anhaltende Regenwetter, welche die vulkanischen Substanzen ausspülen, werden etwa ab Anfang Mai 2010 zu erwarten sein. Darüber hinaus wird die Atmosphäre über Europa in den kommenden Monaten mit verdünnter schwefliger Säure (H2SO2), auch Schwefeldioxid-Lösung genannt, welche durch die Verbindung aus Schwefelwasserstoff (H2S) und Schwefeldioxid (SO2) entsteht, angereichert.

Vulkanausbruch Abendhimmel Bild: Wikipedia
(Europaweit wird am Himmel bei eigentlich klarem Wetter horizontal eine leichte Färbung sichtbar sein, als befände man sich unmittelbar in der Nähe einer Grossstadt.)

Sollte der Vulkan Ausbruch mit den mächtigen Eruptionen über den Sommer 2010 weiterhin anhalten, kann es zu einer massiven Abkühlung über Nord- und Mitteleuropa kommen.

Verkehrsflugzeuge fliegen auf einer Reisehöhe zw. FL 300- 400, also 30'000 - 40'000 ft, was etwa 10'000 bis 12'000 m.ü.M. entspricht. Auf dieser Höhe beträgt die Luftdichte etwa einen Viertel dessen auf Meereshöhe, das heisst, wenn auf dieser Höhe zu viele Aschenpartikel schweben, beeinträchtigt das die Maschine deutlich mehr, als wenn sich die gleiche Menge Asche in Bodennähe befände. Bis die Natur ein neues Gleichgewicht hergestellt hat kann es noch eine ganze Weile dauern.

Eigenschaften der Vulkanasche:

Vulkanasche besteht hauptsächlich aus zwei verschiedenen Aerosoltypen: Etwas mehr als 92% des Volumens besteht aus ca. 0.3- 0.5 µm grossen Schwefeloxid- und die restlichen knapp 8 Volumen-% sind 10-12 µm grosse Quarzpartikel, womit sich das Massenverhältnis fast ausgleicht.

Die wesentliche Menge an Aerosole wird von der Luft mit rund 500 hPa getragen, was etwa einer Höhe von 5'000 m.ü.M. entspricht. Dort befindet sich eine für die menschlichen Sinnesorgane erfassbare Konzentration, d.h. man kann die Asche dort sehen und riechen. Darüber nimmt die Konzentration kontinuierlich mit zunehmender Höhe ab, bleibt aber aufgrund des geringen Luftdruckes auf 10'000 m.ü.M. für die Fliegerei nach wie vor relevant.

Die Verbreitung der Aschenwolke ist vor Allem durch die Winde beeinflusst und lässt sich daher nur schwer anhand eines mathematischen Modells beschreiben. Bei absoluter Windstille könnte man die Verbreitung der Aerosole mit einer e-Kurve proportional zur horizontalen Distanz beschreiben- einer Naturkonstante, mit denen man in der Physik am besten eine degressiv fortschreitende Ausflussrate anhand eines sich dadurch entwickelnden Potentials beschreiben kann. Da die Winde aber die bewegung der Aschenwolke steuern, bleibt die Konzentration viel länger auf relativ hohen Niveau erhalten, da die Masse nicht zerstreut, sondern kanalisiert wird.

(eine Animation des Modells, Dr. B. Neininger, Atmosphärenphysiker, Dozent an der ZHAW)

Frage: Wieso haben europäische Verkehrsminister den ganzen Luftverkehr gesperrt? Antwort: Dies hat zwei Gründe: Einerseits kennen sich viele von ihnen nur unausreichend mit Atmosphärenphysik aus, weshalb ihnen das zutreffende Ausbreitungsmodell nicht bekannt ist- die kanalisierte Forttreibung der Aerosole bringt die Eigenschaft mit sich, dass anstatt den ganzen Luftraum zu sperren, lokale Einschränkungen völlig ausreichen würden. Der zweite Grund dürfte politischer Natur sein: Das Vereinigte Königreich war von der Kontamination stärker betroffen als andere Regionen. Eine Sperrung fast nur über Grossbritannien und kleinen anderen Regionen hätte dem britischen Luftverkehr einen internationalen Marktnachteil verschaffen. Aus diesem Grund wurde die These bevorzugt, man müsse am besten den Luftverkehr europaweit lahmlegen.


aktuelles Wetter in Island:
http://en.vedur.is/about-imo/news/2010/nr/1879


aktuelle Info:
http://www.sueddeutsche.de/politik/760/508899/text/

Donnerstag, 11. März 2010

Wie das Rüchardt-Experiment den Adiabatenexponent eines Gases liefert

Ermittlung der Temperatur durch die Thermodynamik
Das im Alltag geräuchliche Quecksilberthermometer funktioniert nach dem Prinzip der Volumenänderung des Metalls bei Temperaturänderung. Eine bestimmte Menge Quecksilber, die je nach Temperatur einen gewissen Spiegel im Röhrchen erreicht, deutet also auf eine Raumtemperatur hin. Aber was ist, wenn der zu messende Raum sich in einem extremen Temperaturzustand befindet, dass Quecksilber deshalb nutzlos würde, weil es z.B. verdampft und dadurch nicht mehr als Messmethode dienen kann? Für solche Fälle hat man andere Methoden entwickelt, deren Grundkenntnisse nicht zu letzt in der Aviatik und in der Industrie von relevanter Bedeutung sind.


Realitätsbezug: Das Gasthermometer
Um unter Extrembedingungen, bei denen man mit herkömmlichen Quecksilberthermometern an die Materialbelastungsgrenzen stossen würde (z.B. bei 1´000°C), die Temperatur zu messen, arbeitet das Gasthermometer nach dem Prinzip der Messung des Gasdrucks einer konstanten Menge des Gases, dessen Volumen sich je nach seiner Art spezifisch zur Temperaturänderung variiert. Dazu muss zuerst ermittelt werden, wie sich das verwendete Gas, z.B. Luft bei einer Erwärmung konkret verhält. Erst mit dieser Erkenntnis kann man die spezifische Ausdehnung pro Temperatureinheit und damit den potentiellen Druckunterschied des Systems ermitteln, was für eine zuverlässige Temperaturmessung unerlässlich ist.

Theorie:
Komprimiert man ein Gas adiabatisch, d.h. ohne Abfluss von Wärme aus dem System, dann steigt infolge der Temperaturerhöhung der Druck stärker an als bei einer isothermen Kompression, bei der die entstehende Kompessionsarbeit als Wärme abgeführt wird. Der Exponent, mit welchem sich die Ausdehnung des Gases durch die Wärmezufuhr berechnen lässt, wird als Isotropen- bzw. Adiabatenexponent mit dem griechischen Buchstaben "kappa" (Formelzeichen: κ) bezeichnet. Dieser Wert wird durch das Rüchardt- Experiment ermittelt.

Eine adiabat und revisibel verlaufende Zustandsänderung ist isentrop (Entropie S bleibt gleich, Temperatur T ändert sich), deshalb nennt man den Exponenten auch Adiabatenexponent oder Adiabatenkoeffizient. In der Technik ist in der Regel eine adiabate Zustandsänderung (z.B. in einer Dampfturbine) nicht isentrop, da Reibungs-, Drossel- und Stoßvorgänge Entropie produzieren.

Die Formeln dazu:

p*V^k = konstant

(p2/p1)= (V1/V2)^k

Isentropenexponenten für verschiedene Gase

Temp,

Gas

κ


Temp,

Gas

κ


Temp,

Gas

κ

–181 °C

H2

1,597

200 °C

Tr. Luft

1,398

20 °C

NO

1,40

–76 °C

1,453

400 °C

1,393

20 °C

N2O

1,31

20 °C

1,41

1000 °C

1,365

–181 °C

N2

1,47

100 °C

1,404

2000 °C

1,088

15 °C

1,404

400 °C

1,387

0 °C

CO2

1,310

20 °C

Cl2

1,34

1000 °C

1,358

20 °C

1,30

–115 °C

CH4

1,41

2000 °C

1,318

100 °C

1,281

–74 °C

1,35

20 °C

He

1,66

400 °C

1,235

20 °C

1,32

20 °C

H2O

1,33

1000 °C

1,195

15 °C

NH3

1,310

100 °C

1,324

20 °C

CO

1,40

19 °C

Ne

1,64

200 °C

1,310

–181 °C

O2

1,45

19 °C

Xe

1,66

0 °C

Tr. Luft

1,403

100 °C

1,399

360 °C

Hg

1,67

20 °C

1,40

200 °C

1,397

15 °C

C2H6

1,22

100 °C

1,401

400 °C

1,394

16 °C

C3H8

1,13

Der Isentropenexponent ist definiert als das Verhältnis der spezifischen Wärmekapazitäten bei konstantem Druck (cp) und konstantem Volumen (cV)

Der Wert κ bei trockener Luft beträgt 1,402. Bei feuchter Luft kann es bei Expansion, z.B. infolge der Abkühlung zum Wasserausfall kommen: durch die freiwerdende Kondensationswärme wird der Exponent niedriger.

Vorgang des Experimentes:
Für das Experiment steht ein gläsernes Gefäss (Volumen: 0.0025m³), welches nach oben eine rohrförmige Öffnung hat, zur Verfügung. Auf das offene Rohr wird ein luftdichter Kolben fallen gelassen, der mit seiner Masse von 70g die Luft komprimiert- der konstanten Luftmenge (Molarkonstante n) wird ein gewisses Volumen entzogen. Die dadurch komprimierte Luft hat nun gegenüber der Umgebung einen kompressionsbedingten Überdruck, was zu einer Erhöhung der Temperatur führt. Eine positive Rückkoppelung tritt durch diesen Prozess ein. Die Überdruckkraft stösst den herunterfallenden Kolben wieder nach oben, was dann wieder den umgekehrten Prozess auslöst. So wird auf abfedernde Weise, in immer kleiner werdenden auf- und ab- Bewegungen nach gewisser Zeit- auch durch Reibungseinfluss bedingt- der Stillstad erreicht. Gemessen werden die Temperatur und der relative Druck im Gefäss.
Der durch den ständig auf- und ab bewegenden Kolben äquivalent verhaltende Luftdruck bewirkt eine dem entsprechende Temperaturänderung, die durch Labormessgeräte gemessen wird. Erstellt man parallel zu den Messungen ein physikalisches Modell dieses Experimentes, kann das theoretische Zusammenspiel der verschiedenen Grössen untersucht werden. Stellt man die Messresultate während der Schwingungsdauer chronologisch in einem Diagramm dar, fällt dem Betrachter etwas auf: Die modellierte Kurve im p-t-Diagramm schlägt wesentlich stärker aus als die gemessene. Dies ist auf den Wärmeverlust durch das Glas zurückzuführen.
Die theoretische Grundidee für das Projekt ist eine isentrope Kompression eines Gases (hier: Luft). Da eine isentrope Kompression (Konstanthaltung der Entropie) in der Praxis aber unmöglich ist, muss das Rüchardt's Experiment modelliert werden, um die Einflüsse an den Laborgeräten (Wärmeverlust im Gefäss, Druckverlust, etc.) bereinigen zu können.
.....................................................................................................................

*Arthur Louis war ein amerikanischer Geophysiker, der um 1900 das Gasthermometer zu einer Hochtemperaturmessmethode bis 1150
°C erweiterte.
.....................................................................................................................
Quellen:
- Haliday Physik
- Systemdesign Prof. W. Maurer, ZHAW
Photo: Stephan Riediker, Nicole Ulrich