Erstellung hoch auflösender Mond/Planetenaufnahmen (Version 3.3)

Von Peter Wellmann


 

 

Vorwort:  Version 2 unseres Tutorials wurde im Umfang stark erweitert, durch genauere Bestimmung der Brennweite unseres Teleskops kam es bei einigen zuvor veröffentlichten Zahlen zu unwesentlichen Anpassungen. Im Laufe der Jahre hat sich die Technik zur Erstellung von Mondbildern bei uns verfeinert, und die Geräte wurden besser. In Folge entstanden Mondbilder sehr guter Qualität, die für den von uns verwendeten Fernrohrtyp (Schmidt Cassegrain) und die zur Verfügung stehende Öffnung (30cm) fast  an der Grenze des theoretisch Machbaren liegen. Unsere Bilder landeten in Büchern, auf Astro-CD, als "Picture of the Day" in den USA, und wurden in bekannten Astronomie Zeitschriften gedruckt. Da es nicht ganz einfach ist solche Bilder zu fertigen, haben wir hier zusammengestellt was uns in diesem Zusammenhang wichtig erscheint. Fast alle der vorgestellten Verfahren eignen sich auch für bestimmte Bereiche der Planetenfotografie. Wer also Bilder wie die folgenden Beispiele  1.Terminator  2.Rupes Recta 3.Apenninen 4.Saturn 5.Mars 6.Jupiter-IrRGB erstellen möchte, ist sicher an dieser Information interessiert. Alle Aussagen in diesem "Tutorial" kommen aus der Praxis unserer Aufnahmen, Formeln wurden nicht aus wenig überschaubaren theoretischen Ansätzen gewonnen sondern aus Bildern anerkannter Mondfotografen, und beschreiben lediglich deren Praxis. Wer anderer Meinung ist, darf das gerne sein!

 



Teil 0: Montierung und Optik:


Die Montierung: An die Montierung werden keine besonderen Ansprüche gestellt. Für die Aufnahme von Einzelbildern ist sogar eine polare Ausrichtung entbehrlich, die Montierung darf allerdings bei der Nachführung (und möglichst auch bei der Korrektur) keine Schwingungen produzieren. Das überprüft man am einfachsten durch die Betrachtung eines Sterns bei extrem hoher Vergrößerung und absolut ruhiger Luft. Zum Gegencheck schaltet man die Nachführung aus, bewegt sich der Stern dann völlig ruhig und geradlinig aus dem Bildfeld, so war ein eventuell zuvor vorhandenes Zittern durch die Montierung verursacht, und nicht durch mangelhaftes Seeing. Eine Handsteuerbox für die Feinbewegung und zur Betätigung eines Elektrofokussierers wäre sehr hilfreich. Sollen Mosaike aus mehreren Bildern erstellt werden, so muss die Montierung relativ gut polar ausgerichtet werden, damit sich bei der längeren Aufnahmezeit für die Serie die Bilder nicht gegeneinander verdrehen.


Die Optik: Hochauflösende Fotografie ist (perfekte Optik und Kamera vorausgesetzt) eine reine Öffnungsfrage. Sage mir, welche Öffnung dein Teleskop hat, und ich sage dir, welche Auflösung du erreichst. Entscheidend für die maximale Auflösung ist auch bei flächenhaften Bildern der Durchmesser des zentralen Beugungsscheibchens (Airy-Disk) das eine Optik von einem Lichtpunkt liefert, weil sich auch ein flächenhaftes Bild aus einzelnen, sich überlagernden Bildpunkten aufbaut. Mäßig obstruierte Spiegel (Obstruktion = teilweise Abdeckung des Hauptspiegels durch den im Strahlengang befindlichen Sekundärspiegel) sind bei hoher Auflösung gegenüber Refraktoren eher im Vorteil, weil sie deutlich kleinere Airy-Disks produzieren können, und damit höhere Auflösung liefern. Sie haben zwar mehr Licht in den Beugungsringen, und daher einen geringeren Kontrast als ein Refraktor (also einen schlechteren visuellen Schärfeeindruck), aber das lässt sich fotografisch sehr leicht bei der Bildbearbeitung ausgleichen. Aus diesem Grund haben übrigens obstruierte Systeme auch bei der Trennung von Doppelsternen die Nase vorne.


Der schlechtere Ruf der Spiegel gründet sich im Wesentlichen darauf, dass apochromatische (also farbreine) Refraktoren großer Öffnung extrem teuer sind, und daher prinzipiell eine hohe Qualität aufweisen (wer lässt sich schon für etliche tausend oder gar etliche zehntausend Euro ein Gurke anhängen), Spiegel hingegen fast alle aus mehr oder weniger billiger Massenproduktion stammen, und auch in entsprechend reduzierter Durchschnittsqualität auf den Markt kommen. Es gibt zwar einzelne Geräte mit (zu Recht) gutem Ruf, wie z.B. das Celestron C9,25 mit seiner legendären Qualität, aber es bleibt dem Amateur leider nicht erspart, jede Spiegeloptik auch mit einem 98% Strehl Protokoll (Strehl 100% = perfekte Optik), Papier ist geduldig, selbst auf die Tauglichkeit für hoch auflösende Fotografie zu testen.


Da der Test am Himmel wegen der üblichen durchschnittlichen Seeing-Bedingungen (Seeing = Luftunruhe, schlechtes Seeing zerstört das Bild) problematisch ist, bleibt nur die terrestrische Variante. Man betrachtet mit dem minuziös und akribisch kollimierten Teleskop (diese Justage ist extrem wichtig, wer da keine ausreichende Erfahrung hat, sollte unbedingt einen Experten zu Rate ziehen) bei ganz ruhiger Luft (notfalls auch am Tag) ein mindestens 100m entferntes, extrem feingliedriges Objekt (z.B. kleine Kratzer auf dem Blech einer Dacheindeckung, feinste Risse im Putz eines Kamins, besser aber nachts feinste Strukturen wie die Flügel oder Beine von Insekten, die an den Gläsern vieler Straßenlaternen hängen) mit einem guten Okular. Sind diese Strukturen gefühlsmäßig gut scharf bis zu einer Vergrößerung


Es mag etwas verwundern, dass wir die letzte Kategorie, die oft nur für Refraktoren reklamiert wird, auch auf Spiegel anwenden, aber wie oben dargestellt liefern perfekte Spiegel fotografisch theoretisch mindestens so scharfe Bilder wie Refraktoren, und unsere Tests an Dutzenden von Teleskopen haben dieses Vorgehen bestätigt. So liefert die von uns im Moment verwendete 30cm SC Optik bis weit in den Bereich der „leeren“ Vergrößerung hinein bei 850fach an meinem terrestrischen Standard-Objekt absolut untadelige Bilder, und das, obwohl die Optik im sehr ausführlichen interferometrischen Test durchaus noch erhebliche Rauhigkeit und geringe andere Fehler zeigt. Abschließend sei noch einmal darauf hingewiesen, dass man solche Vergrößerungen nicht am Himmel prüfen kann, weil die Luft dazu in unseren Regionen (fast) nie ruhig genug wird! Auch zeigt unsere Erfahrung (leider), dass nur ein geringerer Teil der Produkte aus der Massenfertigung die dritte Stufe der obigen Skala erreichet. Erfüllt die Optik nur die erste Stufe, so würden wir sie umgehend dem Händler zurückgeben!


Seitenanfang

 


 
Teil 1: Maximale Auflösung bei Mond/Planetenbildern

 

Punktabbildung: Leider kann eine Optik einen hellen Punkt (z.B. einen Stern) nicht punktförmig abbilden. Die Beugung des Lichts an der runden Öffnung des Teleskops mit Durchmesser D führt zu einem hellen Scheibchen (Airy-Disk) umgeben von mehreren im Idealfall nur schwach sichtbaren hellen Ringen. Entscheidend für die maximale Auflösung im Bild der Optik ist der Durchmesser des Airy-Disks, je kleiner er ist, desto besser ist die Auflösung der Optik. Für den Durchmesser d des Airy-Disks gilt in Abhängigkeit von der Wellenlänge λ des Lichts und dem Öffnungsverhältnis f („Blende“) die Formel d = 2,5 λf. Für eine Optik mit 30cm Durchmesser bei 3m Brennweite (f10) ergibt sich z.B. für 550nm Wellenlänge ein Durchmesser von ca. 14 Mikrometern (Für Profis: Das entspricht etwa der doppelten Halbwertsbreite der PSF).

 

Auflösung bei Punktabbildung: „Auflösung“ ist im Zusammenhang mit optischen Teleskopen des Durchmessers D ein gut definierter Fachbegriff und ist in Form des Rayligh bzw. Dawes-Kriteriums geregelt. Dabei geht es um die Frage „Bei welchem Winkelabstand a ist das Bild zweier gleich heller Punkte gerade noch vom Bild eines einzelnen hellen Punktes unterscheidbar"? Das Dawes-Kriterium ( für kleine Winkel gilt a = λ/D ) geht davon aus, dass zwei Airy-Scheibchen sogar im Mitten-Abstand von weniger als ihrem halben Durchmessers gerade noch als Überlagerung zweier Scheibchen erkannt werden können. Das Rayligh-Kriterium ( für kleine Winkel gilt a = 1,22 λ/D ) setzt die Mitte eines Scheibchens in den ersten dunklen Ring um das zweiten Scheibchen, ist so um einen Faktor 1,22 weniger optimistisch, und fordert einen um diesen Faktor größeren Abstand. Nach Dawes liefert eine Optik mit 10cm Öffnung gerundet bei etwa 550nm Wellenlänge des Lichts 1,2 Winkelsekunden  Auflösung. Die Auflösung steigt proportional zum Durchmesser der Optik, eine 30cm-Optik löst demnach dreimal besser auf, und erreicht 0,4“ (exakt 0,38“). Das bedeutet, dass bei einem Winkelabstand von 0,38“ zwei gleich helle Punkte gerade noch als zwei Punkte erkannt werden können, obwohl sich ihre Bilder schon mehr als halb überlappen.

 

Auflösung bei Flächen: In Anlehnung an obige Definition nun die Frage: „Ab welchem Durchmesser ist eine Struktur mit hohem Kontrastumfang auf dem Mond gerade noch erkennbar“? Hierzu gibt es keine eindeutige Definition,  da aber wegen der ungestörten Überlagerung von Wellen sich auch ein flächenhaftes Bild aus einzelnen Bildpunkten zusammensetzt für die das Dawes-Kriterium gilt, ist zu vermuten, dass dieses Kriterium in etwa auch die Auflösung im flächenhaften Bild (Mond, Planeten) beschreibt. Ich möchte aber an dieser Stelle keine komplizierten theoretischen Ansätze zur Herleitung einer Formel für die Auflösung in flächenhaften Bildern machen, die dann in Folge zu endlosen Diskussionen führen. Daher beschränke ich mich darauf aus den weltweit besten Amateurfotos und aus scharfen Passagen eigener Bilder durch Vergleich mit Mondbildern der NASA die feinsten noch sichtbaren Details zu bestimmen und die so gewonnenen Grenzen in ein Formel zu fassen. Eine solche reine Beschreibung der Praxis bedarf keiner prinzipiellen Rechtfertigung, Fehler durch die Unsicherheit bei der Bestimmung der Kraterdurchmesser liegen im einstelligen Prozentbereich.

 

Ein Beispiel zum Verfahren: Unter Anderem haben wir kleine scharfe Bereiche in unserem Clavius Bild gesucht. Diese Bereiche haben wir mit einer hoch auflösenden Clementine-Aufnahme (Map-A-Planet/USGS) verglichen. Als Maßstab haben wir den inneren Durchmesser des Kraters Clavius D mit 27km angesetzt. Wegen der nicht klar definierten Grenzen der äußeren Kraterwälle wurden alle Durchmesser auf die höchsten Ränder der Wälle bezogen.

 

Um die folgenden Zahlen zu verstehen ist unbedingt zu beachten, dass Kraterdurchmesser natürlich aus den NASA-Bildern bestimmt werden müssen und nicht(!) aus den Teleskop-Bildern, weil unter einer gewissen Grenze der Durchmesser im Teleskop-Bild nicht mehr durch den echten Kraterdurchmesser bestimmt wird, sondern einen nahezu konstanten Wert annimmt, der durch die PSF (Point Spread Function) der Optik bestimmt wird (Genaueres siehe weiter unten). Aus den Beispielen ergab sich unter Beachtung der Mondentfernung zum Zeitpunkt der Aufnahmen folgendes Resultat (Kilometerangaben gelten für eine mittlere Mondentfernung):

 

 

Fazit: Unter besten Bedingungen mit absolut perfekten Optiken haben die besten Mondfotografen weltweit gelegentlich noch geringfügig bessere Werte erzielt. Als Beispiel könnte eine Plato-Aufnahme mit einem C14 (35cm Öffnung) von Peach gelten, die auf maximale Auflösung getrimmt wurde, und ungefähr 50 Kleinkrater in der Plato-Ebene bis hinab zu 500m Durchmesser zeigt. Damit ist die Frage nach der Auflösung für gute Amateur-Teleskope beantwortet: Ein relativ verlässlicher mittlerer Wert der Winkelauflösung für die sichere Detektierbarkeit feiner Strukturen ist durch die Formel des zweiten oben besprochenen Falls mit der Formel  a = 0,13/D gegeben, dieser Wert entspricht dem Mittel aus Rayligh und Dawes-Kriterium. Unter besten Bedingungen sind noch wesentlich feinere Strukturen „detektierbar“ aber nicht mehr geometrisch „abbildbar“. Das gilt insbesondere auch für lang gezogene Strukturen (Mondrillen, Encke-Teilung bei Saturn), die ebenfalls noch unterhalb der oben aufgezeigten Grenzen auf Bildern erkennbar sein können. Besitzer ganz perfekter Optiken können im günstigsten Fall mit nochmal geringfügig besseren Werten rechnen, bei Objekten mit geringem Kontrastumfang reduzieren sich hingegen die Werte.

 

Generell werden große Optiken mehr Mühe haben obige Grenzen zu erreichen, weil es deutlich schwerer ist eine große Optik mit der erforderlichen Qualität zu fertigen. Auch der Kontrast den eine Optik liefert ist von Bedeutung. Ist er hoch (teurer APO-Refraktor), so wird eine grenzwertige Auflösung natürlich eher erreicht, als bei einem preiswerten SC mit Fensterglas-Schmidtplatte. Jeder Nutzer muss also seine Optik nach diesen Kriterien selbst einordnen und dann entscheiden, welche der oben genannten Grenzen er damit erreichen wird......

 

 

Eine 20cm Optik wird Krater zeigen, die nur 0,2 Bogensekunden größer sind als bei einer 30cm Optik. Aber Vorsicht! Zwischen diesen Werten liegen beim Mond ganze Welten! Eine Verdopplung der Auflösung führt nicht zu einer Verdopplung, sondern zu einer erheblich größeren Zunahme der sichtbaren Strukturen, weil auf dem Mond in vielen Regionen die Zahl der Objekte mit abnehmender Größe rasant ansteigt! Man kann das leicht an einem Apollo-Bild von Ptolemaeus oder einer anderen kraterreichen Region nachprüfen. Der Mond bekommt dadurch ein völlig neues Bild, und es lohnt sich, von 20cm auf 30cm Optikdurchmesser umzusteigen. 35 – 40 cm Optiken sind dann schon wieder eine ganze Klasse besser, und die 30cm Optik wird chancenlos, für hoch auflösende Bilder reicht dann aber das Seeing nur an wenigen Tagen im Jahr….

 

Was sieht man wirklich ? Nun noch ein ganz wichtiger Hinweis! Bei obigen Überlegungen geht es darum, wann ein Struktur auf dem Mond oder einem Planeten gerade noch im visuellen oder fotografischen Bild „detektierbar“ ist. Im Grenzbereich ergibt sich dabei aber keinesfalls ein geometrisches Abbild dieser kleinsten Strukturen, sie sind also nicht wirklich "aufgelöst", sondern nur "detektiert". Im absoluten Grenzfall beträgt z.B. bei unserer 30cm Optik die Winkelgröße gerade noch detektierbarer Strukturen etwa 0,32" bis 0,42", die an der Abbildung beteiligten Airy-Scheibchen  haben aber schon einen Durchmesser von bis zu 0,9“. Das ist zwei bis dreimal so groß wie die eigentliche Bild-Struktur, deren Form daher weitgehend durch die Form des Airy-Disks (bzw. die PSF) bestimmt wird. Bei Annäherung an die Grenze der Detektierbarkeit geht also die „geometrische“ Abbildung in wachsendem Maße in ein „Artefakt“ mit einem Durchmesser über, dessen Aussehen weitgehend durch die PSF bestimmt ist. In der Praxis haben die kleinsten noch schwach angedeuteten Krater in einem hoch auflösenden Mondbild alle nahezu dieselbe Größe, und lassen keinen eindeutigen Rückschluss auf die tatsächliche Größe des Kraters auf dem Mond zu. Das erklärt auch die oft falschen Angaben über die "Auflösung" von Bildern: Misst man am PC-Bildschirm die Ausdehnung eins kleinen, extrem kontrastarmen Kraters von 5 Pixeln und bestimmt daraus den Durchmesser, so könnte der tatsächliche Durchmesser  auf dem Mond erheblich kleiner sein! Das gilt im Übrigen auch für andere Strukturen, die Encke-Teilung im Saturnring wird von kleinen Optiken aus eben diesem Grund viel breiter abgebildet (besser: "detektiert") als erwartet.

 

 

Wie das in der Praxis aussieht zeigt der Vergleich zweier Bilder des Kraters Plato, die mit Teleskopen stark unterschiedlicher Öffnung (Blende) gefertigt wurden. Das untere  Bild der großen Öffnung zeigt deutlich verschieden große Krater in der Platoebene, die Doppelkrater oben sind einwandfrei getrennt, Konturen wirken scharf. Das obere, für die kleine verwendete Öffnung hervorragende Foto, zeigt exakt die Merkmale die beim vollen Ausreizen der theoretischen Grenze in einem Bild zu erwarten sind: Die kleinen Krater in Plato erscheinen durch die PSF aufgebläht und fast gleich groß, die Doppelkrater oben sind daher nicht mit Zwischenraum getrennt. Es gibt zudem abgerundete, durch die PSF mitbestimmte Kanten auch an allen anderen kleinen Strukturen (bitte nicht mit dem Bildrauschen verwechseln).

 

Das Bild der kleinen Öffnung zeigt übrigens ein kräftiges Rauschen (körniges Aussehen), das eine deutlich kleinere Struktur hat als die kleinsten echten Bildstrukturen. Mit einem Rauschfilter könnte man also dieses Rauschen recht wirkungsvoll aus dem Bild entfernen, eine Folge des großen Öffnungsverhältnisses (f46) mit dem das Bild aufgenommen wurde. Im unteren Bild (aufgenommen mit f21) hätte Rauschen die selbe Größe wie im Bild oben, könnte aber nicht mehr entfernt werden, weil die kleinsten echten Details von gleicher Größe wie das Rauschen wären, eine Tatsache, über die später noch geredet wird.

 

Seitenanfang

 

 

Teil 2: Wahl der CCD-Kamera bei Mond/Planetenbildern

 

Monochrom oder Farbe? Eine Farbkamera üblicher Konstruktion hat gegenüber einer monochromen Kamera einen Nachteil. Über den Pixeln des CCD liegt eine Maske aus kleinen Farbfiltern in sich wiederholenden Gruppen von je 2x2 = 4 Filtern. Von diesen Filtern sind zwei diagonal gegenüberliegende grün, und je einer rot beziehungsweise blau (Bayer-Maske). Aus den Intensitätswerten der so belichteten Pixel (Raw-Bild) muss der Computer (oder die in die Kamera eingebaute Elektronik) die einzelnen Pixel des Farbbildes nach komplizierten Algorithmen berechnen. Dabei wird sowohl die Helligkeit als auch die Farbe durch Interpolationen gewonnen. Das ist natürlich nicht ganz unproblematisch, und gelingt je nach verwendetem Algorithmus (nicht alle Kameras sind da gleich) mal besser und mal weniger gut. Auf jeden Fall ergibt sich natürlich ein Schärfeverlust gegenüber einer entsprechenden monochromen Kamera. Auch führt die Farbinterpolation gegebenenfalls zu Farbsäumen, die mit den angrenzenden Farben nicht identisch sind. Das Bild unten zeigt das Problem anhand der Fotografie einer Rasierklingen-Kante in gelbem Lampenlicht. Das sich auch bei der monochromen Abbildung keine scharfe Linie ergibt, ist durch die Beugung des Lichts an der Öffnung der Optik bestimmt. Im vorliegenden Fall liegt die wirkliche Kante der  Rasierklinge in der Mitte zwischen den roten Linien, die Theorie verlangt eine Verbreiterung auf ca. drei Pixelbreiten, was sich im Bild gut bestätigt. Wichtig ist hier nur die Verbreiterung der Kante bei der Farbkamera, woraus sich eine größere "effektive Pixelgröße" als bei der monochromen Kamera ergibt. Der hier vorliegende Faktor von etwa 1,3 hängt von der Lage der Kante zum Pixelraster der Kamera ab, und verringert die Bildschärfe entsprechend. (Bei Verwendung sehr schmalbandiger Farbfilter kann sich dieser Faktor auf maximal 2 erhöhen, wenn nur die Blauen oder nur die roten Pixel angesprochen werden). Beachten wir nun auch noch den erheblichen Verlust an Lichtstärke durch die Filter der Bayer-Maske, so sprechen folgende Punkte gegen die Verwendung einer Farbkamera:

Wir werden also für die Mondfotografie keine Farbkamera verwenden. Anders liegt der Fall bei der Planetenfotografie, weil dort auf Farbe nicht verzichtet werden kann. Trotz der oben aufgezeigten Nachteile können mit Farbkameras schöne Bilder produziert werden, wie wir an Beispielen weiter unten sehen werden. Wer allerdings auf beste Bildschärfe und beste Farbdarstellung angewiesen ist (das sind speziell die Nutzer kleiner Optiken), der muss zu einer Kombination von monochromer Kamera wie der DMK21 (für die Helligkeitswerte) und Farbkamera wie der TouCam (für die Farbwerte) greifen, oder mit einer monochromen Kamera durch Farbfilter (z.B. rot, grün, blau) drei Bilder machen, und diese im Computer zu einem RGB-Farbbild verarbeiten. Einige Information dazu folgt weiter unten!

 

 

CCD oder CMOS? Auf dem Markt befinden sich in wachsendem Maße Kameras die statt den teuren klassischen CCD-Sensoren die extrem preiswerten CMOS-Sensoren verwenden. Neben dem Preisvorteil sprechen auch noch andere Punkte (wie z.B. fast keine Elektronik erforderlich, geringer Stromverbrauch etc.) für CMOS. In professionellen Kameras zeigt dieser Sensor-Typ auch ganz hervorragende Eigenschaften, dabei sind diese Sensoren mit hohem Aufwand entwickelte Spezialteile, die dem allgemeinen Markt natürlich aus Konkurrenzgründen nicht zur Verfügung stehen. In den preiswerten Kameras die für Astronomie in Frage kommen werden oft Sensoren verbaut, die nicht annähernd die Qualität eines "richtigen" CCD-Chips erreichen. Das soll nun keinesfalls bedeuten, dass alle angebotenen astronomischen CMOS Kameras problematisch sind, es soll nur ein Hinweis darauf sein, dass zumindest zum Zeitpunkt 2009 vor dem Kauf eine sorgfältige Information über die Qualität der Kamera unbedingt erforderlich ist! Das Bild unten zeigt den Vergleich zwischen einem typischen preiswerten CCD-Sensor und einem entsprechenden CMOS-Sensor unter identischen Aufnahmebedingungen.

 

 

Ein Jahr später, Ende 2010, sah die Sache schon anders aus. Zu diesem Zeitpunkt gab es schon CMOS Sensoren wesentlich besserer Qualität. Insbesondere interessant war dabei die Tatsche, dass diese Sensoren teilweise sehr kleine Pixel hatten. Mit 2,2 Mikrometern Pixelgröße kann man bei vielen Teleskopen bereits auf die Brennweitenverlängerung mit einer Barlow verzichten, und selbst bei hochauflösenden Fotos direkt im Brennpunkt arbeiten. Das ist ein enormer Vorteil. Wir hatten eine Kamera mit einem solchen Sensor beschafft, und damit das CMOS-Bild  unten links und zum Vergleich das CCD-Bild unten rechts durch Überlagerung von jeweils 100 Einzelbildern eines Videos gemacht. Die Bilder zeigen einen kleinen Teil einer entfernten Straßenlaterne aufgenommen mit einem ETX-Teleskop durch eine Fensterverglasung hindurch, und sind nicht primär als Schärfetest gedacht, sondern zum Vergleich der Lichtempfindlichkeit. Beide Kameras wurden auf gleiches Rauschen in den Einzelbildern eingestellt, die Brennweite des Teleskops wurde bei der CMOS-Kamera durch einen Reducer halbiert um ungefähr den gleichen Abbildungsmaßstab zu erreichen. Um einen exakten Vergleich durchführen zu können wurde der Abbildungsmaßstab durch Nachvergrößern des DMK-Bildes noch geringfügig um den Faktor 1,17 korrigiert. Hätte man diese Korrektur optisch durchgeführt, so wäre dadurch die Belichtungszeit des DMK-Bildes um den Faktor 1.17² = 1,37 länger geworden, was zu einer Zeit von 1/8s (statt 1/11s) geführt hätte. Vergleicht man die Zeiten 1/24s mit der so korrigierten Zeit 1/8s, so erkennt man einen Faktor 3 zu Gunsten der CMOS-Kamera. Die Pixel der CMOS-Kamera sind  zwar absolut gesehen etwas unempfindlicher als die Pixel der CCD-Kamera, aber durch das kleinere und damit viel hellere Bild auf dem Chip der CMOS-Kamera erreicht man am Teleskop letztlich einen Gewinn an Empfindlichkeit gegenüber der bisherigen Mond-Referenzkamera DMK41, und liegt sogar etwas besser als die bisherige Planeten-Referenzkamera DMK21.

 

 

Also sofort Kamera wechseln? Leider hat der geprüfte CMOS-Sensor einen "rollenden" Verschluss der nicht alle Pixel auf einmal schaltet, sondern zeilenweise und zeitlich versetzt. Das führt beim Auslesen eines bewegten Bildes zu starken Verzerrungen, für Astronomie ist die Kamera daher nur brauchbar, wenn das Teleskop das  Bild felsenfest am Ort hält, was bei Amateurteleskopen eher selten ist. Auch starke Bewegungen durch Luftunruhe sind da weniger erwünscht. Mit seinem riesigen Bildfeld und mit seiner hohen Framerate bei kleinem Feld wäre der Sensor ideal für Mond und Planeten (allerdings nicht für die IR-Fotografie), sollte auch mal eine Version mit globalem Verschluss auf den Markt kommen, so erhielte die CCD-Kamera eine ernste Konkurrenz. Ende 2010 heißt es also abwarten wie die Entwicklung weiter geht, zumal auch neue CCD-Kameras auf den Markt kommen die Chips mit stark erhöhter Empfindlichkeit im IR aufweisen, interessant weil bei der Planetenfotografie wegen der dann weniger störenden Luftunruhe vermehrt Luminanzbilder im Infraroten aufgenommen werden.

 

Kameras Stand 2012: Natürlich gibt es inzwischen mehrere gute Planetenkameras, aber auch der Trendsetter TIS hat mit etwas Verspätung "aufgerüstet", und liefert nun seine bekannten und beliebten 21er Kameras mit den 618er CCD´s von Sony. Damit hat sich die Eignung der Kameras für die Planetenfotografie nochmals deutlich verbessert. Die neuen Kameras haben im gesamten Bereich eine deutlich höhere Lichtempfindlichkeit, am wenigsten merkt man das am "blauen" Ende, ganz drastisch ist der Effekt im Infrarot. Das ist besonders für Aufnahmen bei unruhiger Luft ein großer Vorteil, weil man dann das IrRGB-Verfahren (siehe auch weiter unten) nutzen kann, um noch ausreichend gute Bilder zu bekommen. Gegenüber der alten Version stieg die Empfindlichkeit im Infrarot auf das Dreifache. Wir haben das zum Anlass genommen, einen ausführlichen Test dieser Kameras im Vergleich zu den Vorgänger-Versionen  für "Sterne und Weltraum" zu schreiben, veröffentlicht in Heft 12/2011 mit einem Umfang von 9 Seiten. Für Langzeitbelichtung sind die neun 21er Kameras nicht mehr optimal, weil sie ein relativ starkes Rauschen zeigen. Der Testbericht aus SUW der neuen 21er Kameras stand zumindest zeitweise in mäßiger Qualität an dieser Stelle zur Verfügung. Dabei handelt es sich um ein PDF, also bitte eine Weile Geduld, bis es geladen ist. In entsprechend reduzierter Qualität steht auch der erste Bericht aus Heft 6/2008 als PDF zur Verfügung.

 

Ein Nachfolger der bewährten 41er Mondkamera ist eigentlich nicht erforderlich, die 41er ist immer noch ein guter Tipp, und wurde im Preis deutlich gegenüber 2008 gesenkt, wer unbedingt noch eine Stufe "aufsteigen" will, kann die neue 51er Kamera probieren, diese Kamera hat aber mit 1600x1200 Pixeln und 4,4 Mikrometern Pixelgröße schon einen so großen CCD-Chip, dass es bei Aufnahmen mit extremer Schärfe am Bildfeldrand schon Probleme geben kann, wenn das Bildfeld des Teleskops nicht absolut eben ist.

 

Schnittstelle zum PC: Natürlich werden wir möglichst zu einer Kamera greifen, die die Daten digital und ohne Komprimierung an den PC überträgt. Ob der Anschluss über USB oder Firewire erfolgt, ist prinzipiell egal. Analoge Kameras mit Grabbern sind nicht mehr Stand der Technik. Zu den oft angestellten Rechnungen mit den Datentransferraten der verschiedenen Schnittstellen ist anzumerken, dass zur Übertragung oft vorgegebenen Protokolle verwendet werden, bei denen nur ein gewisser Teil der maximalen Datenrate der Schnittstelle für die Bildinformation ausgenutzt wird, der Rest ist als "Overhead" für die Übermittlung zusätzlicher Daten reserviert. Einfache Rechnungen ohne Kenntnis des Overheads sind dann völlig sinnlos und fehlerhaft. Neuere Kameras verwenden die GigE Schnittstelle und verbinden die Kamera über Netzwerkkabel mit dem PC. Dabei läuft aber die Stromversorgung oft getrennt, und die Kameras haben wegen der kräftigen erforderlichen Leitungstreiber gelegentlich eine erhöhte Leistungsaufnahme (Erwärmung der Kamera).

 

Fazit Kamerawahl: Für die Planetenfotografie ist die DMK21 wegen der hohen Lichtempfindlichkeit eine gute monochrom-Kamera, für Farbauszüge eignet sich die TouCam trotz der Datenkompression recht gut. Ideale Kameras für die Mondfotografie (aber nicht für die Planetenfotografie) sind wegen ihrer kleinen Pixel und großen Pixelzahl die Imaging Source Kameras DMK31 und DMK41 sowie eventuell in der gehobenen Preisklasse die DMK51, die mit einem Öffnungsverhältnis (Öffnungsverhältnis = Blende) von mindesten 17 betrieben werden müssen. Für die DMK21 ist das ideale Öffnungsverhältnis 20. Alle noch größeren Öffnungsverhältnisse sind bei diesen Kameras „leere“ Vergrößerung, und führen zu längerer Belichtungszeit ohne Gewinn an Bildschärfe. Das bei leerer Vergrößerung die Bildkonturen gegenüber dem Rauschen vergröbert werden, ermöglicht (wie wir schon oben in den zwei Plato-Abbildungen gesehen haben) bei der späteren Bildverarbeitung eine bessere Trennung von Rauschen und Bildsignal, eine Zugabe von ca. 3  Stufen zum berechneten Öffnungsverhältnis kann also nicht schaden. Das gilt allerdings nur, wenn genügend Licht zur Verfügung steht, weil sonst die geringere Lichtstärke zusätzliches Rauschen generiert. Bei Kameras mit noch größeren Chips als der der DMK 41 wird es problematisch, weil die Bildfeldwölbung fast aller Optiken minimale Unschärfe am Bildrand erzeugen kann. Weitere ausführliche Information über die Kameras von Imaging Source liefert unser Kameratest in „Sterne und Weltraum“ 06/2008. Was wichtig ist, wird dort auf 10 Seiten ausführlich besprochen. Aktualisiert wurde dieser Test im Heft 12/2011 mit den neuen Varianten der 21er Kameras, die schon weiter oben kurz angesprochen wurden. Die Artikel stehen auch auf der Homepage der Zeitschrift zum Download zur Verfügung. Da immer wieder über die Qualität der TouCam im Vergleich zu den TIS-Kameras gerätselt wird, hier eine Vergleich von zwei Bildern, die innerhalb weniger Minuten bei konstantem Seeing aufgenommen wurden und sehr gut zeigen, dass die DBK21 Farbkamera ein erkennbar besseres Bild als die TouCam liefert. Nun ist aber die DMK21 noch mal deutlich schärfer und lichtempfindlicher als die DBK21, weil sie keine Bayer-Maske hat. Wenn man kein RGB-Bild machen will, wäre die optimale Lösung also ein s/w-Bild mit der DMK21 in Kombination mit einem Farbauszug der DBK21 oder der TouCam. Die geringere Schärfe der TouCam spielt dann keine Rolle, weil das Auge nur die Schärfe aus dem Luninanzbild sieht. Ein Beispiel für ein ein solches Bild gibt es hier, die Farbe stammt von einer DBK21, die Luminanz lieferte eine DMK21 im unsichtbaren IR.


Konverter und Barlow: Zum System der Kamera gehört bei hoch auflösender Fotografie fast immer eine Brennweitenverlängerung der Optik. Da normale Okulare für parallelen Strahlenaustritt berechnet sind, ist Okularprojektion nur mit speziellen Projektionsokularen optimal, oder mit einem sehr teuren Flatfield-Konverter, wie er z.B. von der Firma Baader in perfekter Form angeboten wird. Normalerweise reicht jedoch eine gute Barlow völlig aus. Definitiv hervorragend ist die apochromatische zweifach-Barlow von Celestron, mit der sich je nach Abstand zum CCD-Chip Verlängerungen von 2 bis 3-fach erzeugen lassen. Selbst bei umgekehrtem Einfügen des demontierten Unterteils in den Strahlengang (um dichter an die Kamera zu kommen) funktioniert sie noch problemlos. Es gibt andere untadelige Barlows auf dem Markt, wie z.B. die Televue Powermate, aber auch preiswerte Teile können durchaus optimal funktionieren. Eine schlechte Barlow bedeutet allerdings das Ende aller Träume, man sollte nicht an der falschen Stelle sparen.

 

Filter: Zum System der Kamera gehört bei hoch auflösender Fotografie fast immer ein Filter. Der Einsatz von Filtern ist eine nicht ganz einfache Angelegenheit, zunächst gehen wir mal davon aus, dass zum Schutz des CCD-Chips ein Klarglas oder ein IR-Sperrfilter (oft auch in der Form eines IR/UV-Sperrfilters) vor die Kamera geschraubt wird. Das hier nur Filter bester Qualität angesagt sind, ist selbstverständlich. Fast alle unserer Mondbilder sind mit einem solchen Filter vor der Kamera entstanden. Unter bestimmten Bedingungen sind jedoch auch andere Filter sinnvoll oder sogar zwingend erforderlich. Dazu gibt es am Ende des Tutorials noch umfangreiche Auskünfte. Wer allerdings mit einem schlecht farbkorrigierten Refraktor oder bei hoher Luftunruhe arbeiten muss, kann ja auch schon jetzt mal den entsprechenden Abschnitt lesen.

 

Schutz und Reinigung: Zum Schutz des CCD vor Dreck und Staub gehört eigentlich unbedingt ein Filterglas vor die Öffnung. Ein Staubkorn auf dem CCD ist tödlich für das Bild, ein Staubkorn auf dem Filter einige Zentimeter davor ist hingegen völlig unproblematisch. Oft wird man ohnehin ein IR-Sperrfilter verwenden, das dann die Schutzfunktion übernimmt, im Zweifelsfall kauft man ein Filter aus Klarglas. Sollte nun doch einmal Staub auf den Chip gelangen, so entfernt man den mit einem sauberen Wattestäbchen in staubfreier Umgebung. Vorsicht: nicht zu fest mit dem Stäbchen auf das extrem dünne und zerbrechliche Fenster von dem CCD drücken! Eine Erfolgskontrolle ist möglich, indem man mit der Stecknadel ein feines Loch in die Schutzkappe des Kamerastutzens sticht, und die Kamera mit Abstand vor eine helle Lichtquelle hält (Lochkamera). Ist der Dreck zu fest, genügt oft das Anhauchen des Chips und sofortiges Abreiben des Feuchtigkeitsbeschlags mit dem Wattestäbchen, ganz leichtes Blasen ist auch erlaubt.....

 

Seitenanfang

 

 

Teil 3: Anpassung der CCD-Kamera bei Mond/Planetenbildern

 

Problem: Für jeden Fotografen stellt sich eine wichtige Frage: „Welches Öffnungsverhältnis muss ich wählen, um bei einer bestimmten CCD-Kamera die Auflösung der Optik voll zu nutzen“? Auch an dieser Stelle verzichte ich gezielt auf theoretischen Ansätze zur Herleitung einer Formel für die Kameraanpassung, weil es problematisch ist, dabei alle Einflüsse auf das Bild zu erfassen. Lediglich am Ende des Abschnitts gebe ich kurz einen Hinweis zu einem solchen Vorgehen und seinem Ergebnis. Wie also geht es ohne Theorie? In solchen Fällen fertigt der Physiker ein "Modell", leitet daraus Formeln her, und wenn diese Formeln in der Praxis den Vorgang gut beschreiben, war das Modell gut. Ich habe mir sogar zwei verschiedene Modelle ausgedacht, dass Beide das identische Ergebnis liefern ist erfreulich:

 

1. Modell mit Dawes-Kriterium: Zwischen zwei auf Grund der Auflösung gerade noch trennbaren hellen Punkten muss logischer Weise auf dem CCD-Chip noch ein weiterer Punkt liegen, sonst können sie im Bild nicht getrennt werden. Es muss also so sein, dass die beiden hellen Punkte auf zwei Pixel fallen, zwischen denen noch ein dritter Pixel liegt, das Bild muss also auf drei Pixel verteilt werden. Von Mitte zu Mitte der beiden äußeren Pixel ist das eine Strecke von 2x (dabei sei x die Breite eines Pixels). Die Brennweite F der Optik muss also so angepasst werden, dass der durch das Auflösungsvermögen vorgegebene kleinste Punktabstand genau auf diese Strecke 2x abgebildet wird. Bei unserer Optik berechnet sich F aus den für 30cm Öffnung und 550nm Lichtwellenlänge vorgegebenen 0,38“ des Dawes-Kriteriums, wie wir bereits in unserer Abhandlung über die Auflösung gezeigt haben.

 

Das führt für unsere Optik und Kamera mit der für kleine Winkel gültigen Formel  sin a = 2x/F   (a Auflösung in Grad, also 0,38/3600 sowie x = 0,0000046 Pixelraster des CCD in Metern) zu einer Brennweite F in Metern von F = 2x/(tan a) = 5,0m entsprechend einem Öffnungsverhältnis von f17. Verallgemeinert man diese Rechnung, so ergibt sich eine einfache „Merkregel“ für das Öffnungsverhältnis f = 3,6x, die dann für beliebige Optiken und s/w-Kameras bei 550nm Wellenlänge gültig ist (x in Mikrometern einsetzen).

 

2. Modell mit Airy-Disk: Wir können überlegen wie ein Airy-Disk auf einem CCD-Chip abgebildet wird, wenn man dem Bild eine gewisse Zahl von Pixel zuordnet. Die Abbildung unten zeigt das schematisch für Quadrate aus 2 x 2,  3 x 3 und 5 x 5 Pixeln. Bei zentraler Abbildung auf 2 x 2 Pixel werden alle Pixel gleichmäßig grau, eine feine Auflösung ist so nicht möglich. Die bei einer Abbildung auf 3 x 3 Pixel entstehenden „Kreuze“ können bei lang gezogenen Strukturen und Kanten zu stufigen und unsauberen Darstellungen führen. Erst beim Raster mit 5 x 5 Pixeln zeigt sich eine einigermaßen ordentliche kreisähnliche Wiedergabe. Den mathematische Ansatz für die drei Fälle liefert die Gleichsetzung des Durchmessers des Airy-Disks  2,5λf  (Für Profis: Das entspricht etwa der doppelten Halbwertsbreite der PSF) mit der Kantenlänge nx des Quadrats aus n Pixeln: 2,5λf = nx. Das führt für n = 2, n = 3 und n = 5 bei einer Wellenlänge von 550nm zu den unten in der Abbildung angegebenen Formeln für das Öffnungsverhältnis f.

 

 

Wie wir schon an anderer Stelle gesehen haben, setzt sich auch ein flächenhaftes Bild wegen des Superpositionsprinzips für Wellen aus der Überlagerung einzelner Bildpunkte (Airy-Disks) zusammen. Für beste Anpassung der Kamera ist es unabdingbar, dass diese kleinsten Strukturen eines Bildes auch korrekt abgebildet werden. Das führt zwingend zu den in der Abbildung oben rot eingerahmten Werten für das Öffnungsverhältnis f, wenn die Kamera optimal angepasst werden soll. Auch dieser Denkansatz führt also zu der schon zuvor hergeleitete Formel für beliebige Kameras und Optiken:  f = 3,6x.  Dabei ist für Farbkameras mit Bayer-Maske für x der effektive Pixeldurchmesser zu setzen, der nach unseren Untersuchungen der Kantenschärfe in SUW 6/2008 ca. 1,3mal größer ist, als der geometrische Wert von x.

 

Fazit: Zum Erreichen der theoretischen Auflösung ist neben einer guten, hervorragend kollimierten Optik auch gutes Seeing erforderlich. Früher waren wir der Meinung, das Seeing müsse perfekt sein. Neuere Beobachtungen zeigen erstaunlicher Weise aber, dass selbst bei keinesfalls perfekten Bedingungen sogar mit einer 30cm Optik beste Auflösung erreicht werden kann. Diese neue Erkenntnis führt zu folgender Empfehlung:

 

 

Mit kleineren f-Werten arbeiten? Die Anpassung einer Kamera lässt sich auch theoretisch über einen Ansatz mit der PSF herleiten. Vernachlässigt man dabei andere Einflüsse auf die Bilderzeugung (Rauschen, Smear, usw.), so erhält man die Formel f = 3x für etwas kleinere Öffnungsverhältnisse. Aus der Praxis heraus halten wir aber die mit unserem Modell berechneten f-Werte (f = 3,6x) immer dann für sinnvoll, wenn die Optik eine sehr gute Qualität hat, und die atmosphärischen Bedingungen stimmen. Durch die bei Flächen erforderliche korrekte Belichtungszeit wird der weniger helle Randbereich des Airy-Disks kaum sichtbar, was den Durchmesser verkleinert, die Überlegung in Richtung „noch bessere Auflösung“ verschiebt, und ein noch höheres Öffnungsverhältnis fordern würde. Auch um Fehler der Elektronik bei der Bildbearbeitung zu kompensieren ist ein gewisses "Oversampling" gelegentlich um so günstiger, je schlechter die Elektronik ist. Viele bekannte Mond/Planetenfotografen arbeiten daher mit noch größeren Werten, professionelle Gerät wie das Hubble-Teleskop müssen sich mit solchen Problemen nicht herumschlagen, und kommen daher auch mit kleinerem Öffnungsverhältnis aus.

Mann sollte auch beachten, dass die Auflösung in den betrachteten Grenzfällen nicht mehr linear mit dem Öffnungsverhältnis zusammenhängt. Eine Verdopplung von f führt daher nicht zur doppelten Auflösung, und wer bereit ist zu Gunsten von mehr Licht und Bildfläche auf geringfügig Auflösung zu verzichten, sollte mit geringeren Werten arbeiten (jedoch möglichst nicht die Werte im blauen Kasten oben unterschreiten).

Besitzer durchschnittlicher Optikqualität sollten vor allem auch bei schlechteren Bedingungen den f-Wert bis auf f = 2,2x verringern. Vorteile eines kleineren f-Werts sind das große Bildfeld und die kurze Belichtungszeit. Die Belichtungszeit spielt aber bei guten Bedingungen keine so entscheidende Rolle wie oft vermutet. Die Bildverarbeitung erfordert bei kleinem f-Wert eine Nachvergrößerung mittels Interpolation, und ist erheblich kritischer in Bezug auf unsaubere Kantendarstellung und Rauschen (Teile des Rauschens sind nicht durch kurze Belichtung vermeidbar, und lassen sich bei den bei kleinem f-Wert auftretenden  extrem feinen Details nicht mehr vom Nutzsignal trennen, siehe auch die beiden Plato-Bilder weiter oben). Wer mit diesen Einschränkungen leben will, kann auch mit kleineren f-Werten auf einfache Weise ganz erstaunliche Resultate erreichen, das zeigt auch ein Vergleich zweier Bilder, die zufällig mit der gleichen Optik und der gleichen Kamera zur selben Zeit an verschiedenen Orten aufgenommen wurden. Allerdings zeigt das mit f10 aufgenommene und Nachvergrößerte Bild schon sehr deutlich die Grenzen dieses Verfahrens.

Besonders bei der Planetenfotografie ist ein gewisses Oversampling zur Erzeugung sauberer Bilder sehr nützlich, daher arbeitet praktisch keiner der bekannten Planetenfotografen an kleineren Optiken mit kleinen f-Werten, sondern mit Werten die sogar noch oberhalb der von uns empfohlenen Werten liegen. Ein gutes Beispiel ist die für die Größe der Optik von nur 20cm Öffnung absolut erstklassige Jupiter-Aufnahme von Torsten Hansen. Seine Kamera ist nach unserer Rechnung bereits bei f20 ordentlich angepasst, das Bild entstand aber bei f33, und zeigt deutlich die Überlegenheit größerer Öffnungsverhältnisse bei guten Bedingungen. Mit einem Öffnungsverhältnis von f10 wäre der Mond Ganymed flächenmäßig 10mal kleiner gewesen, und hätte keine definierten Strukturen mehr zeigen können. Auch hätte man feine Rauschanteile bei f10 nicht mehr aus dem Bild  entfernen können.

Wie präzise unsere Rechnungen zur Anpassung sind zeigt auch ein Bild, das zum Testen eines Schärfungsfilters bearbeitet wurde. Dieses Bild zeigt viele kleine Krater, die sich im Maßstab 1:1 nur über eine Länge von vier Pixel erstrecken. Würde man das Bild statt mit dem Öffnungsverhältnis f20 mit f10 aufnehmen, so wären diese Krater auf eine Länge von 2 Pixel abzubilden, was natürlich unmöglich ist. Noch deutlicher wird das bei der Zahl der beteiligten Pixel, bei f20 sind das bis 4x4 = 16, bei f10 nur maximal 2x2 = 4. Ein Kraterbild mit 4 Pixeln ist im Gegensatz zu einem Bild mit 16 Pixeln nicht mehr denkbar, und würde allenfalls im Zuge der bei f10 unvermeidlichen Bildvergrößerung zu einer durch Interpolation erzeugten künstlichen kraterähnlichen Struktur. Wer also mit einer sehr guten Optik bei sehr guten Bedingungen optimale Bilder (speziell von Planeten) aufnehmen will, sei also ausdrücklich vor den gelegentlich propagierten zu kleinen Öffnungsverhältnissen gewarnt!


Seitenanfang

 

 
Teil 4: Vorbereitung und Durchführung einer Aufnahme.


Kollonimation: Für die hoch auflösende Fotografie ist eine absolut präzise und korrekte Kollimation (Justage) der Optik unerlässlich. Da nun bei fast allen Teleskopen der Massenfertigung die Mechanik nicht optimal ausgeführt ist, gibt es Probleme. Bei einem SC, bei dem das Blendrohr (auf dem der Spiegel zur Fokussierung verschoben wird) nicht ganz parallel zur optischen Achse steht, verschiebt sich der Spiegel beim Umfokussieren von der visuellen in die fotografische Position seitlich gegenüber der Achse, was unvermeidlich zur Dekollinmation führt. Um eine ständige neue Kollimation zu vermeiden, sollte man durch entsprechende Verlängerungshülsen daher die Kamera so befestigen, dass nur ein minimales Nachfokussieren aus der visuellen Position heraus nötig ist. Es kann nicht oft genug gesagt werden: Auch der minimalste Fehler bei der Kollimation macht alle Hoffnungen auf ein hoch auflösendes Bild zunichte!

Extrem wichtig: Wir kollimieren zunächst ganz "normal" durch Zentrierung  der intra/extrafokalen Bilder. Dann kommt aber eine ganz wichtige Übung die man auf jeden Fall absolut korrekt ausführen sollte, wenn die Optik auch nur die geringsten nichtsphärischen Bildfehler hat. Nichtsphärische Bildfehler führen bei Luftunruhe dazu, dass die  Lichtausbrüche am kollimierten fokalen Bild nicht gleichmäßig in allen Richtungen verlaufen, sondern eine Vorzugsrichtung haben. Nehmen wir mal an, die durch die Luftunruhe verursachten Lichtausbrüche erfolgen bevorzugt nach rechts. Dann wird später bei der Überlagerung der einzelnen Frames des Videos kein runder Fleck entstehen, sondern ein nach rechts verlängertes Oval. Diese strichförmige Verformung erfolgt an jedem einzelnen Punkt des Bildes, und führt zu einem extrem unschönen Aussehen des sonst sehr scharfen Bildes, das sich viele Fotografen nicht erklären können. Um diesen extrem ärgerlichen Fehler zu vermindern, geht man wie folgt vor: Man beobachtet das Bild eines nicht zu hellen Sterns am Monitor bei ganz leichter Luftunruhe. Bei möglichst genauer Fokussierung (des schon wie üblich kollimierten Teleskops) sollten die durch die Luftunruhe bedingten "Ausreißer" am fokalen Bild völlig symmetrisch auf alle Richtungen verteilt sein! Ist das  nicht der Fall, so muss man die Kollimation so korrigieren, das dieser Zustand möglichst genau eintritt. Anderenfalls gibt es später die erwähnten Probleme, die paradoxer Weise gerade bei scharfen Bildern besonders unangenehm auffallen.


Temperaturausgleich: Ein ganz erhebliches Problem kann ein mangelnder Temperaturausgleich in der Optik sein. Zur Überprüfung schaut man auf das hoch vergrößerte, defokussierte Sternbild, in dessen Ringen auch feinste Strömungen im Tubus z.B. als vertikale Linien sichtbar werden. Die Erzeugung hoch auflösender Bilder wird schon durch geringste Strömungen erheblich gestört, weil feinste Details in den Bildern verzerrt werden. Auch in der strömungsfreien Optik können sich keilförmige „Kaltluftseen“ über dem Spiegel bilden, die wie ein Prisma wirken, und lineare Verzerrungen hervorrufen. Wie man diese Fehler beheben kann (Lüfter im SC, Isolierung des Tubus) kann man sicher im Internet recherchieren, wir habe da noch keine Erfahrungen, und werfen zu stark belastete Videos vorerst einfach weg.


Das Seeing: Bei der hoch auflösenden Fotografie sind gute Bedingungen unabdingbare Voraussetzung. Wir stellen unseren Tubus rechtzeitig zum Auskühlen ins Freie, aufgebaut wird jedoch erst, wenn die Beobachtung mit einer kleinen Optik eine Chance auf gutes Seeing zeigt. Steht das Objekt nicht hoch genug am Himmel, so verzichten wir ganz. Zu den Problemen mit dem Seeing kommt dann noch die atmosphärische Refraktion (die Lufthülle wirkt wie ein Prisma), die das Bild des Mondes ganz leicht zu einem Spektrum auseinander zieht, was sich bei einer monochromen Aufnahme ohne Filter nicht korrigieren lässt. Etliche Fotografen verwenden daher (und das gilt auch für die Planetenfotografie) Farbfilter (Grün, Rot, IRpass) um die Refraktion zu korrigieren, und den Einfluss des Seeings auf das Bild zu verringern (lange Wellenlängen werden von der Luftunruhe nicht so stark beeinträchtigt, wie kurze Wellenlängen). Das verlängert allerdings die Belichtungszeit, was eher unerwünscht ist. Man sollte diese durchaus Erfolg versprechende Methode unbedingt mal ausprobieren, Genaueres siehe im Nachtrag zu diesem Tutorial. Noch ein wichtiger Tipp: Die Praxis hat gezeigt, dass es in der Dämmerung oft eine kurze Phase sehr ruhiger Luft gibt, bei der sehr gute Bilder gewonnen werden können, rechtzeitiges Anfangen kann sich also lohnen! Ist das Seeing bezüglich der hohen Auflösung grenzwertig, so probiert man es dennoch: Häufiger als man denkt lassen sich erstaunlicher Weise die Videos gut bearbeiten, obwohl die Luft nicht ganz ruhig war, das Gegenteil kann allerdings leider auch eintreten! Eine kleine Hilfe bei der Beurteilung des Seeings könnte so aussehen: Starks "Wabern" und Verzerrungen im Bild müssen noch nicht unbedingt bedeuten dass man chancenlos ist, es ist aber unabdingbare Voraussetzung für ein ordentliches Ergebnis, dass wenigstens blickweise das Bild auch mal ganz ordentlich scharf aussieht. Ist das nicht der Fall, so gibt es kein ordentliches Ergebnis, auch dann nicht, wenn das Bild sonst relativ ruhig erscheint....

 

Die Montierung: So banal es klingt, es könnte dennoch wichtig sein: Die Montierung sollte immer in Deklination und Rektaszension so ausbalanciert sein, dass ein geringer Zug in einer Richtung übrig bleibt. Tut man das nicht (also bei 100% Ausbalancierung), so könnte bei einer sehr leichtgängigen Montierung schon der geringste Wind die Optik um den Betrag des fast immer vorhandenen Lagerspiels hin und her bewegen, was sicher nicht erwünscht ist. Bei Mondaufnahmen ist es sinnvoll, die Nachführgeschwindigkeit dem Mondlauf anzupassen, falls die Elektronik das erlaubt. Wenn man bei Planeten mit der Ausschnittsfunktion der Kamera nur den ganz engen Bereich um den Planeten herum mit aufnimmt, ist es auch sinnvoll den Schneckenfehler der Montierung auszugleichen, falls vorhanden nutze man also die entsprechende Funktion der Elektronik! Je genauer die Montierung polar ausgerichtet ist, desto leichter gelingt die Aufnahme. Selbst bei unserer uralten, klapprigen Montierung bleibt dann ein Planet für mindestens 10 Minuten exakt in der Bildmitte, und die Handbox muss nicht zur ständigen Korrektur eingesetzt werden. So gelingen dann auch Videos, die später vom Computer ohne Probleme zentriert und gemittelt werden können.


Das Fokussieren: Vor der Aufnahme sollte man sehr präzise fokussieren, und die Einstellung des Fokus immer wieder neu machen, man läuft sonst Gefahr, dass alle Videos leicht defokussiert und wertlos sind! Beim Fokussieren ist nicht nur auf die  Schärfe zu achten, sondern auch auf minimale Unruhe im Bild. Oft ergibt der Punkt minimaler Unruhe ein besseres Kriterium für die richtige Fokussierung als die Schärfe selbst. Stellt man später ungleichmäßige Schärfe in den Bildern fest, so sollte man die Kollimation überprüfen, eventuell steht die Bildebene nicht senkrecht zur Achse der Kamera. Auch die modernen Crayford-Auszüge können die Ursache sein. Wir hatten schon zwei solcher Auszüge, bei denen der bewegliche Teil leicht schief eingebaut war, und auch nicht justiert werden konnte. Zur Überprüfung klemmt man den ganzen Auszug in eine große Schublehre, oder legt auf den auf einer ebenen Fläche stehenden Auszug eine Wasserwaage. Schon geringste Fehler sind bei hoch auflösender Fotografie tödlich, und man sollte das Teil dem Händler zum Tausch überlassen!


Einstellen der Software: Das ist ein weites Feld, und kann hier nicht erschöpfend dargestellt werden. Die Bezeichnungen der Regler und die Funktion unterscheiden sich auch je nach verwendeter Kamerasoftware. Selbst bei identischer Software können Regler je nach angeschlossener Kamera unterschiedlich arbeiten, das ist z.B. bei den Imaging Soruce Kameras der Fall, je nachdem ob die Kameras Firewire oder USB nutzen. Die zu den TIS-Kameras gelieferte Software IC Capture ist aber einfach und intuitiv zu nutzen, zusätzliche Ausführungen haben wir in unserem TIS-Kameratest in SuW 6/2008 gemacht. Einige prinzipielle Anmerkungen die mehr oder weniger für alle Video-Kameras zutreffen, scheinen aber dennoch unbedingt erforderlich zu sein. Gamma, Gain und Belichtungszeit sollten zwar prinzipiell möglichst immer so gewählt werden, dass der volle Bereich des Histogramms (bei IC-Capture einblendbar) für den interessierenden Bereich des Bildsignals genutzt wird, aber man sollte  dabei folgende Hinweise beachten:

Nachträgliche Gamma-Korrektur? Eine nachträgliche Korrektur des Gammawerts bei der Bildverarbeitung ist möglich, wenn die Gammaregelung der Kamera erst hinter dem AD-Wandler einsetzt, und das Bildmaterial mit mindestens 16-Bit verarbeitet wird. Da wir nicht wissen ob die Gammaregelung bereits beim Digitalisieren eine Rolle spielt, und auch die Verarbeitungssoftware (Registax, Giotto, Avistack) definitiv Referenzpunkte etc. in kontrastreichen Bildern besser findet als in "flauen" mit hohem Gamma aufgenommenen Videos, stellen wir den Gammawert schon bei der Aufnahme sorgfältig und optimal ein.

 


Seitenanfang


 
Teil 5: Normale Bildverarbeitung

Problembeschreibung: Da dieser Text auch für Anfänger gedacht ist, kurz einige prinzipielle Erläuterungen. Mondbilder werden durch die Luftunruhe (Seeing) fast immer unscharf und verzerrt. Schärfe und Verzerrung ändern sich zeitlich sehr schnell, es gibt auch Momente scharfer und unverzerrter Abbildung. Leider betrifft das aber immer nur einen kleinen Teil des Bildes, das Bild zerfällt in kleine Bereiche, die nie alle zusammen gleichzeitig gut abgebildet werden. Abhilfe schafft die Verarbeitung und Auswertung vieler Bilder eines Video-Films mit dem Computer in doppelter Hinsicht: Erstens wird eine große Zahl von Bildern ausgewertet, dabei addiert  sich die unvollständige Information der einzelnen unscharfen Bilder zu einem Bild mit hohem Informationsgehalt. Gleichzeitig reduziert  sich das in digitalen Bildern unvermeidliche Rauschen um die Wurzel aus der Zahl der Bilder. Verarbeite ich 900 Bilder, so sinkt das Rauschen also um einen Faktor 30. Erst bei reduziertem Rauschen ist es dann möglich, einen effektiven Filter zur Bildschärfung zu verwenden.  Zweitens können die Programme viele kleine Bereiche der Bilder unabhängig voneinander bearbeiten, und so den Schärfeverlusten und Verzerrungen durch schlechtes Seeing entgegenwirken. Für diese Art der Auswertung stehen mehrere Programme zur Verfügung, die mit leichten Abwandlungen nach dem gleichen Prinzip arbeiten, das im Folgenden auf das Programm AviStack zugeschnitten kurz erläutert wird.

Prinzipieller Ablauf der Bearbeitung:  Zunächst untersucht der Rechner die Lage aller Bilder (Frames) des Videos, und verschiebt die einzelnen Frames so, dass sie möglichst genau übereinander liegen. Die so ausgerichteten Frames werden zu einem Mittenbild gemittelt. Dann unterteilt der Rechner das Mittenbild in viele kleine Teilgebiete, in der Mitte eines jeden Teilgebiets wird ein Referenzpunkt festgelegt. Ein Referenzpunkt ist eine möglichst auffällige Struktur, die der Rechner später ausreichend sicher in allen Video-Frames wieder finden sollte.

Nun wird jedes einzelne Video-Frame in Bereiche aufgeteilt, deren Bildqualität anhand bestimmter Kriterien bestimmt wird. Der Nutzer legt fest, welche Qualität er mindestens fordert. In Folge sucht der Rechner den Referenzpunkt eines der zuvor festgelegten Teilgebiete in allen Frames des Videos, die eine genügende Qualität haben, und zentriert alle Teilbilder anhand des Referenzpunktes für dieses Teilgebiet. Dieser Vorgang muss für jedes einzelne Teilgebiete erfolgen, ist er für alle Teilgebiete beendet, so werden die zentrierten Teilbilder aller Teilgebiete überlagert, und zum  fertigen Bild zusammengefügt. Einen Eindruck davon wie das abläuft gibt die folgende Zusammenstellung für die Bearbeitung eines kleinen Ausschnitts aus einem großen Mondbild:

Software AviStack 1.74: Ende 2008 kam mit AviStack eine neues Programm zur Verarbeitung von Mond und Planetenvideos in Gebrauch, das ebenfalls nach obigem Schema arbeitet.  Wir haben uns nach anfänglichem Abwarten dann Anfang 2009 dieses Programm näher angeschaut, und die ganze Serie neuer Mondbilder von 2009 mit diesem Programm erstellt. Es gibt eine Reihe von Parametern, die den Ablauf des Programms bestimmen, die wir in folgender Weise eingestellt haben:

1.Schritt: Zunächst setzen wir in einem ausgesucht guten Video-Frame zwei Ausrichtpunkte, die möglichst prägnant und weit voneinander entfernt sein sollten. Ausrichtgebiet 25; Suchradius 20; Glättungsfaktor 1. Dann starten wir die Ausrichtung der Video-Frames. Sollten am Ende einige besonders ausgeprägte Ausreißer im Ergebnisdiagramm erkennbar sein, so blenden wir diese mit dem Regler links am Bild aus, und berechnen ein neues Referenzbild.

2. Schritt: Zunächst setzen wir die Schwellenwerte für eventuelle schwarze Himmelpartien am Mondrand, die nicht mit Referenzpunkten belegt werden sollen. Danach erzeugen wir die Referenzpunkte (die die Zahl der Ausrichtgebiete bestimmen). Glättungsfaktor 20; Minimalabstand 30 (ein höherer Wert geht leider nicht einzustellen); Suchradius 5; Korrelationsflächen Radius 24; Frameausweitung 96 (was das ist, keine Ahnung). Jetzt speichern wir normalerweise die Daten für eine spätere Batch-Auswertung.

3. Schritt: Es folgt die Festlegung der Qualitätsgebietsgröße, wir wählen keinesfalls weniger als 80, und starten die Berechnung. In Folge setzen wir die Qualitätsschwelle auf 10 - 30 Prozent, und starten die Ausrichtung der Frames. Am Ende dann noch die Überlagerung der Frames und die Speicherung des fertigen Bildes. Auf die Schärfung mit Wavelets verzichten wir gerne. Die Ausrichtung der Frames erfordert längere Rechenzeit, weshalb sich für den 3. Schritt zumindest bei großen Bildern der Batch-Modus unter Verwendung der beim 2. Schritt gespeicherten Daten empfiehlt. Das fertige Bild muss am Ende noch mit einem geeigneten Schärfungsfilter geschärft werden, hierzu verwenden wir die Filter von Giotto (s. weiter unten bei "Giotto").

Bei der Bearbeitung liefert AviStack eine Menge von Diagrammen, die einen über die quantitativen Ergebnisse der Zwischenschritte informieren, und dem Nutzer dadurch die gezielte Anpassung von Parametern erleichtern. Das folgende Bild zeigt das Ergebnis einer anfänglichen Ausrichtung aller Frames eines Videos. Durch den roten Bereich kann der Anwender sehr weit verschobenen Frames von der Bearbeitung ausschließen, leider aber nur von oben her, ein kleiner Mangel dieser Funktion. Im gezeigten Beispiel wäre diese Funktion bei maximalen Verschiebungen von nur 4 Pixeln allerdings unnötig, eine starke Verschiebung sollte auch keinesfalls mit schlechter Qualität verwechselt werden. Die maximale Verschiebung ist übrigens ein Anhaltspunkt dafür, welcher Suchradius später mindesten verwenden sollte (ohne Korrektur  4, mit Korrektur 3). Das untere Diagramm zeigt, dass während der Aufnahme die x-Position (Rektaszension) ständig mit der Handbox korrigiert wurde, während das bei der geringen Drift in Deklination nicht erforderlich war.

Im Gegensatz zu Registax (Beschreibung unten) arbeitet AviStack bei korrekter Bedienung absolut stabil und ohne jeden Programmabsturz auch im Hintergrund und Batch-Modus. Zwischenzustände der Bearbeitung können jederzeit gespeichert werden, Schritte können jederzeit mit anderen Parametern wiederholt werden. Der Ablauf der Bearbeitung ist geradliniger und genauer vorgegeben als bei Registax, was grobe Fehlbedienung (wie bei Registax4 möglich) erschwert. Im Vergleich zu unserem bewährten Verfahren bei Registax rechnet AviStack deutlich länger, und die Ergebnisse waren bei unseren Bildern allenfalls geringfügig besser als bei unserem Registax-Verfahren. Wenn die für Version V2 avisierte vollständige Batchverarbeitung fertig ist, ist allerdings die Rechenzeit nicht mehr von Bedeutung, und AviStack würde zum unschlagbaren "Geheimtipp" für bequemes Arbeiten. Schwächen liegen besonders in der nach unseren Erfahrungen unnötig großen Zahl von Gebieten, in die das Bild automatisch zerlegt wird. Wo bei Registax von Hand und überprüfbar  festgelegt ca. 15 -25 Gebiete für ein 1280x1024 Bild erforderlich und ausreichend waren, erzeugt AviStack mehrere Tausend winzige Gebiete, was sich auch durch Einstellung der zugänglichen Parameter nicht unter 500  Gebiete drücken lässt. Erfreulicher Weise haben die Entwickler des Programms angekündigt, dass ab der Version V2 die Zahl der Referenzpunkte in einem weiteren Bereich verändert werden kann. Die zur Bearbeitung erforderlichen Referenzpunkte (einer in jedem Gebiet) werden auch in Bereiche gelegt, in denen wegen einer absolut glatten Bildfläche keinerlei für einen solchen Punkt erforderliche Struktur zu erkennen ist. Die Entwickler des Programms versichern aber, das bei notfalls etwas größer gewähltem Korrelationsflächenradius genügend Struktur vorhanden ist.

Verändert man zum Test wichtige Parameter der Bearbeitung die die Zahl der Gebiete, die Überlagerung und die Qualitätsprüfung beeinflussen, so ist im Endergebnis keine nennenswerter Unterschied bei unseren Bildern erkennbar. Auch das deutet darauf hin, dass zumindest für unsere Bilder bei der Zahl der Ausrichtgebiete ein unnötiger Aufwand getrieben wird, zumal Registax bei korrekter Bedienung ähnlich scharfe Ergebnisse mit bis zu 100mal(!) weniger Referenzpunkten erzeugt. Die Entwickler des Programms verweisen auf qualitativ schlechtes Video-Material, bei dessen Verarbeitung viele Referenzpunkte wichtiger werden. Bei der Zusammensetzung des Bildes aus den einzelnen Bearbeitungsgebieten kommt es gelegentlich zu Störungen in Form von zwei parallelen Linien an den Nahtstellen. Trotzdem überwiegen die Vorteile von AviStack, so dass wir  es bereits in der Version 1.74 Registax4 vorziehen. Während Registax durch Bewegung bei der Aufnahme verschobene Videos voll überlagert, und so ein deutlich größeres Bild liefert als dem Format der Kamera entspricht, ist dies bei AviStack in der getesteten Version leider nicht möglich, auch zeigen die Bilder von AviStack bei unruhigem Videomaterial einen relativ großen unscharfen Rand, weil keine randnahen Referenzpunkte gesetzt werden können. Dieser "Mangel" soll aber ebenfalls mit der Version V2 behoben werden. Mit Videos über 1GB Dateigröße kommt AviStack 1.74 im Gegendsatz zu Registax4 problemlos klar. Mit Bedauern haben wir festgestellt, dass auch AviStack  auf eine der bei Registax4 verwendeten ähnliche Wavelet-Schärfung setzt,  hoffentlich ergibt sich daraus eine im Vergleich zu Registax4 bessere Lösung. Ich würde es gerne sehen, wenn AviStack den unübertroffen guten Mexican Hat Filter von Giotto anbieten könnte! Für die Bearbeitung von Planetenbildern haben wir das Programm noch nicht verwendet, es bleibt  also zunächst offen, ob die sehr gute Funktion von Giotto bei Planetenbildern übertroffen werden kann.

 

Software AviStack 2: Diese Software funktioniert im Prinzip ebenso wie die Vorgängerversion, die Aufmachung des Programms (Oberfläche) wurde aber stark verändert. Ein großer Vorteil ist der nun mögliche völlig automatische Ablauf des Programms. Wir haben erste Versuche mit AviStack 2 an Jupiter unternommen und dabei festgestellt, dass das Programm nicht unbedingt sehr einfach zu verwenden ist. Auch waren die Ergebnisse am Planeten nicht immer besser als bei einfacher zu verwendenden Programmen. Bei unseren Versuchen gab es in bestimmten Bereichen von Jupiter mit Avistack bessere Ergebnisse als mit Giotto oder AutoStakkert, besonders in genügend strukturierten randfernen Bereichen. Randnahe Bereiche in den Polkappen wurden oft von Giotto besser abgebildet, auch wenn bei Avistack automatisch erzeugte randnahe Referenzpunkte von Hand entfernt wurden. Speziell bei sehr gutem Videomaterial war es eigentlich egal, ob man mit Giotto, AutoStakkert oder Avistack gearbeitet hat, wobei der Aufwand bei Avistack am größten war. Dieser Aufwand lohnt sich vermutlich nur bei schlechtem Videomaterial, das wir aber ohnehin nicht bearbeiten. Obwohl wir mit dem Programm und den verschiedenen Parametern ausgiebig experimentiert haben, sind wir noch zu keinem endgültigen Ergebnis gekommen, die Ergebnisse waren von Fall zu Fall mal mit Avistack und mal mit Giotto besser. Ob Avistack generell nun für die Bearbeitung von Planeten Vorteile bietet, die ein Einarbeiten in die relativ komplizierte Materie rechtfertigen, bleibt um so offener, je besser das Videomaterial ist.

Ganz anders sieht das bei der Bearbeitung von Mondbildern aus. Hier ist AviStack 2 wegen der Möglichkeit der vollen Automatisierung ein absolutes "Muss" wenn große Datenmengen verarbeitet werden sollen, und das rechtfertigt auch den erheblichen Aufwand zur Einarbeitung in das Programm. Avistack 2 ermöglicht nun auch das Arbeiten mit einer geringen Zahl von Referenzpunkten (wichtig besonders bei sehr großen Bildern), und den Einschluss der Randgebiete bei einer Überlappung der Videoframes hervorgerufen durch Verschiebung während der Aufnahme. Wir werden bei Gelegenheit ausführlicher über das Programm berichten.

 

Software "AutoStakkert!": AutoStakkert ist eines der mit Abstand am einfachsten zu verwendenden Programme zum Überlagern von Planetenvideos in Schwarz-Weiß. Es arbeitet zudem extrem schnell, wo andere Programme 40 Minuten benötigen, ist AutoStakkert  auch schon mal in 5 Minuten fertig. Natürlich wird dabei ein wesentlich geringerer Aufwand betrieben als zum Beispiel bei Avistack 2, aber die Endergebnisse  werden bei Avistack 2 nur bei optimaler Einstellung aller Parameter eventuell etwas besser, und diese optimale Einstellung ist für ungeübte User nur sehr schwer und mühsam zu finden. Beim Arbeiten mit ungeeigneten Parametern arbeitet Avistack 2 sogar schlechter. Die Ergebnisse von AutoStakkert entsprechen in etwa denen von Giotto, ebenfalls einem nicht sehr kompliziert zu nutzenden Programm, aber AutoStakkert ist noch einfacher bedienbar und noch schneller. Für Mondaufnahmen ist Avistack unschlagbar, und für Farbvideos von Planeten empfiehlt sich nach wie vor Giotto, Leute die es schnell und unkompliziert mögen sollten für ihre S/W-Videos aber zu AutoStakkert greifen.

 

1. Open AVI Flies(s): öffnet das gewünschte Video (oder mehrere Videos). Die Box „Write Quality Data“ lässt man normalerweise ungecheckt, die Option „1,5xDrizzle“ brachte bei unseren Versuchen keinen Nutzen und bleibt ebenfalls ungecheckt. Mit „COG Treshold“ stellt man die Helligkeitsschwelle ein, von der an der Planet erkannt werden soll. Nur wenn der Planet extrem dunkel erscheint, sollte man einen Wert unter 20 wählen, nur wenn der Hintergrund nicht schwarz ist, ist ein Wert über 20 erforderlich. Mit den Schiebern für die Bildgröße wählt  man einen möglichst kleinen Ausschnitt, das  Programm arbeitet dann schneller.

 

2. Set Reference Rect:  Durch Klicken mit der Maus auf die linke obere Ecke und dann auf die rechte untere Ecke erzeugt  man ein Rechteck dessen Inhalt zum Überlagern der Bilder verwendet wird. Dieses Rechteck muss einen möglichst kontrastreichen Teil  des Bildes umschließen. Man kann auch bei Saturn den linken Teil der Ringe markieren, und in einem zweiten Durchlauf den rechten Teil, und die beiden Bilder dann später zusammenfügen. Will man nur einen Durchlauf, so markiert man den Kompletten Ring. Bei Jupiter haben wir den ganzen Planeten in das Rechteck gelegt. Man wählt dann „Edge“ oder „Gradient“ für das  Verfahren zur Qualitätsprüfung. Bei „Gradient“ wird der Kontrast im Innenbereich des gewählten Rechtecks zur Prüfung herangezogen, bei „Edge“ werden die Kanten des Planeten im ganzen Bild verwendet. Unscharfe Kantenbereiche am Planetenterminator können abgewählt werden. „Noise Robust“ erlaubt die Wahl der Rauschfilterung bei der Bearbeitung, je stärker das Rauschen, desto höher der Wert. Für  normale Qualität ist 3 eine gute Einstellung. Diese Filterung wird natürlich nicht(!) auf das Endergebnis angewendet, sondern ist nur bei der Bearbeitung aktiv. Die Option „Invariant to Brightness“ wird nicht erklärt, vermutlich ist das eine Funktion die die Qualitätsprüfung unabhängig von Helligkeitsschwankungen der Frames macht, wir haben das  nicht ausprobiert. Mit „View Random Frame“ kann ein anderer Frame des Videos als Referenz für die weitere  Bearbeitung gewählt werden, je besser der gewählte Frame, desto besser das Ergebnis. Leider ist dies Funktion rudimentär, weil man sich nur vorwärts durch das Video bewegen kann.

 

3. Process AVI: löst die Bearbeitung des (oder der) gewählten Videos aus. Dabei werden die vier Schritte Q/R/O/S ausgeführt, der letzte Schritt S ist das Stacken. Vor Auslösen der Bearbeitung wählt man bei „Output Images“ das  gewünschte  16-Bit Format TIF oder PNG, und  setzt in den Fenstern die gewünschte Zahl der gestackten Frames. Fenster mit 0 werden nicht aktiv. Beispiel: Setzt man bei Prozent die Werte 50,  75 und 100, so erhält man später drei Auswertungen mit jeweils 50%,  75% und 100% der Frames, wobei natürlich die qualitativ besten Frames verwendet werden.

Die  Optione „Normalize Brightness“ setzt automatisch den hellsten Punkt im Bild auf 70%  Helligkeit, die Option „Convolved Images“ erzeugt zu jedem Rohbild ein geschärftes Bild zur Kontrolle wie gut die Rohbilder sind. Wir haben diese Optionen nicht verwendet. „RAW stacks“ muss natürlich gewählt werden, damit das unbearbeitete Ergebnis gespeichert wird, und „Save in Folders“ ist sinnvoll, weil dann für jede der Prozenteinstellungen ein eigener Folder für das Ergebnis im Ursprungsverzeichnis des Videos angelegt wird. „Save ordered BMPs“sollte man keinesfalls verwenden, man findet sonst Tausende von Bildern auf der Festplatte. Im Feld „Prefix“ kann man noch einen Prefix für die Namen der zu speichernden Ergebnisse angeben.

Unter „Image Convolution Kernel“ kann man den zur  Schärfung verwendeten Kernel setzen, das ist  uninteressant, wenn man zum Schärfen andere Filter verwendet (Mexican Hat bei Giotto). Unter „Reference Frame“ setzt man Stack Size auf etwa 100, und verwendet den mitgelieferten  Reference Kernel („Load Reference Kernel“, und dann Doppelklick auf „ReferenceKernelDefault.afc“). Wir haben das sicherheitshalber so gemacht, weil es uns nicht ganz klar ist, ob der hier erzeugte Referenz Frame beim Stacken der Endergebnisse verwendet wird.

4. Castrator: Diese Programm ist ein "Zubehör" zu AutoStakkert, es ermöglicht die Vorbehandlung eines Videos in Bezug auf Bildausschnitt und Ausrichtung eines Planten im Video. Das bearbeitete Video kann dann platzsparend archiviert werden, und beschleunigt die Verarbeitung bei AutoStakkert und in anderen Programmen. Die Bedienung ist einfach, man sollte sich das Programm unbedingt mal ansehe. Es verkleinerte Y800 Videos der Imaging Source Kameras erheblich, speichert  diese aber eventuell nicht mehr im 24 Bit Format, was aber bei Schwarz-Weiß und einer Kamera mit nur 8 Bit Bildtiefe wohl kein Beinbruch ist.

 

Software Registax 4: Bei der Bearbeitung von Mondvideos mit Registax ist unbedingt die Multipoint-Option zu nutzen, die das Bild in einzelne Teile zerlegt bearbeitet. Nur so kann die durch Seeing verursachte ungleichmäßige Schärfe ausgeglichen werden. Unsere Versuche haben gezeigt, dass viele Optionen von Registax die Bearbeitungszeit stark verlängern, und kaum Vorteile bringen. Wir verwenden bei Multipoint die einfache Version „Simple“, und das Filter „Gradient“ zur Qualitätskontrolle (processing area 512 pixel). Bei den Filteroptionen steht bei Gradient „Pixelradius 2“, das haben wir nicht verändert, im „multi align window“ ist der minimale Punktabstand auf 64 gesetzt. Wir arbeiten mit etwa 10 bis 25 Punkten in der großen DMK41-Aufnahme. Ganz zu Beginn ist es sinnvoll, aus dem Video ein möglichst gutes Bild als Vergleichsbild herauszusuchen, bevor man die Multi-Points festlegt. Beim Festlegen der MP verwenden wir die Boxengröße 128 und bei kleinen Kratern in ebenen Fächen auch mal 64. Am Ende sollte man die gewählten Multipoints speichern, damit sie zur Verfügung stehen, wenn ein Programmfehler einen zur erneuten Auswahl des Videos zwingt. Nach dem Alignment begrenzen wir die Zahl der Bilder (Limit) auf ca. 200 – 400, und führen die Optimierung („single run“ optimizer) aus. Danach wählen wir das Menü „Stack“, und setzen die Option „Feather“ auf ca. 7 Pixel (unscharfe Kante beim Überlagern der Bildteile), sowie die Option „expand to maximum imagesize“, und starten das Stacken. Nach dem Stacken sofort(!) das Bild speichern (!!keinesfalls darf zuvor der Modus der Wavelet-Filterung aufgerufen werden!!). Wer es unbedingt noch genauer will, kann nach dem Begrenzen mit „Limit“ noch ein neues Vergleichsbild aus den besten 50 Einzelbilden erstellen (create new reference) und leicht mit dem 2. Regler von Wavelet schärfen. Das geht sehr schnell und in wenigen Sekunden, schaden kann das nicht. Nach dem Optimieren könnte man noch den Stackgraph aufrufen, und für jeden Multipoint einzeln noch eine zusätzliche Qualitätsauswahl durchführen, bevor man das Stacken startet. Das geht ebenfalls recht schnell, und kann nicht schaden. Die Arbeit von Registax ist dann getan.

Software Registax 5: Registax 4 ist ein sehr nützliches aber nicht sehr ausgereiftes, fehlerhaftes Programm. Häufiger nerven Fehlfunktionen bei der Bedienung (wichtige Funktionen laufen aber glücklicherweise weitgehend korrekt), man findet aber schnell Wege die Fehler zu umgehen. Treten ernsthafte Probleme auf, so ist gelegentlich ein kompletter Neustart die beste Lösung um weitere Fehler zu vermeiden. Der Anfänger sieht sich mit einer unüberschaubaren Vielfalt von Funktionen und Parametern konfrontiert, deren Sinn und Nutzen sich nicht ohne weiteres erschließt oder sogar fragwürdig ist. Das sich dieser Zustand mit der Version Registax 5  bessert ist zu hoffen, aber nach ersten Eindrücken kaum zu erwarten. Anfängern raten wir daher zur Verwendung von AviStack. Für die Bearbeitung von Mondvideos nutzen auch wir momentan  dieses Programm. Eventuell werden wir uns später einmal genauer mit Registax 5 beschäftigen, und möchten vorher mangels Erfahrung keine endgültigen Aussagen machen.

Software Giotto 2.12: Dieses Programm ist sozusagen der "Urvater" der Software zur Verarbeitung von Videos zu fertigen Bildern. Giotto bietet daher noch nicht die Möglichkeit, ein Bild zur Eliminierung der Luftunruhe in Teilbereiche zu zerlegen, die dann getrennt bearbeitet werden. Es ist daher für großflächige Bilder nicht mehr die erste Wahl. Giotto funktioniert aber bei der Erstellung von Planetenbildern hervorragend, und es besitzt ganz hervorragende Filter zum Schärfen. Wir verwenden daher Giotto für unsere Planetenbilder, und zum Schärfen der mit Registax oder AviStack gewonnenen Mondaufnahmen.

Software Fitswork 3.99: Dieses Programm ist ein universell nutzbares Programm mit einer Unmenge von Möglichkeiten. Aus Zeitmangel haben wir nicht untersucht, welche der vielen interessanten Funktionen für die Mond/Planeten-Fotografie eventuell nutzbar sind, jedoch haben uns die Gauss-Schärfungsfilter von Fitswork interessiert. Schließlich ist die optimale Schärfung ein wichtiger (eventuell sogar der wichtigste) Vorgang bei der Erstellung hoch auflösender Bilder. Untersucht haben wir die Tauglichkeit speziell für die Mondfotografie mit unserer Kamera DMK41 (siehe Teil 6).

 

Seitenanfang

 

 

Teil 6: Schärfen von Bildern

Problembeschreibung: Durch die zuvor beschriebene Überlagerung von sehr vielen Einzelbildern wird das Rauschen sehr wirkungsvoll weitgehend aus dem Ergebnis-Bild entfernt. Daher ist es nun möglich sehr effektive Filter zur Schärfung anzuwenden. In dem zunächst noch unscharf aussehenden Bild ist ja durch die Addition und Mittelung vieler Bilder auch die Bildinformation von vielen Bildern "versteckt", und wartet nur darauf sichtbar gemacht zu werden. Im Prinzip ist diese Information also vorhanden, mit Hexerei hat das Schärfen also nichts zu tun, auch wenn das manchmal angesichts der enormen Verbesserung des Bildes kaum zu glauben ist. Man kann sich das ganz stark vereinfacht so vorstellen: Durch die physikalischen Eigenschaften der Optik (Beugung etc.) und durch Einflüsse der Luftunruhe erscheint das Bild eines Punktes nicht als scharf begrenzter Punkt, sondern als kleine Scheibe, deren Helligkeit von der Mitte nach außen abnimmt. Diese Abnahme erfolgt z.B. in Form einer glockenförmigen Gausskurve, oder einer ähnlichen PSF (point spread function). Ist die Form dieser PSF genau bekannt, so ist es möglich mit dem Computer die verschmierten Bildpunkte in die ursprüngliche Form "zurück zu rechnen", was zu einer ernormen Verbesserung der Bildschärfe führt. Ein anderer Ansatz ist der Folgende: Analysiert man das Frequenzspektrum eines Bildes, so befinden sich die feinsten Details in den höchsten Frequenzen des Spektrums. Hebt man nun diese Frequenzen mit einem Hochpass an, so werden die feinsten Details im Bild verstärkt, das Bild wirkt schärfer.

Grenzen der Schärfung: Alle Schärfungsverfahren haben natürlich "Risiken und Nebenwirkungen". Ein auf der PSF basierendes Verfahren kann natürlich nur korrekt arbeiten, wenn die PSF genau bekannt ist. Das ist aber in der Praxis nie der Fall. Auch eine zu intensive Anwendung der Schärfungsalgorithmen über die Grenze von 100% Rückrechnung der Bildunschärfe hinaus bewirkt unangenehme "Artefakte" im Bild, also Strukturen die mit dem ursprünglichen Bildinhalt nur noch wenig zu tun haben. Bei den so genannten Wavelet-Filtern entstehen bei immer stärkerer Anwendung in wachsendem Maße "Strickmuster"-ähnliche Strukturen in glatten Flächen, aber auch die Schärfung ohne Wavelets ist keinesfalls (wie oft behauptet) weitgehend artefaktfrei: Bei übertriebener Anwendung entstehen auch hier massenhaft feine Bildstrukturen, die mit dem Originalbild wenig bis garnichts zu tun haben. "Ungefährliche" Artefakte wie die Ringe in den dunklen Schatten der Krater könnte man durchaus ohne gravierende Entstellung des Bildes entfernen, nicht so jedoch die unzähligen feinen Veränderungen bei zu starker Filterung. Hier ist der Anwender aufgerufen, im richtigen Moment Schluss zu machen! Das ist bei "schönen Bildern" lediglich Geschmackssache, bei wissenschaftlichen Aufnahmen jedoch eine sehr heikle Angelegenheit.

Schärfen mit Photoshop: Da viele Bildbearbeiter dieses Programm besitzen fragt man sich natürlich ob damit eine gute Schärfung von Astrobildern möglich ist. Zur Verfügung stehen die Filter "Unscharfe Maske" USM und der "Gaußsche Weichzeichner" GW. Letzteren muss man gleich im Zusammenhang mit der Schärfung erwähnen, weil er zwischen den einzelnen Anwendungen der Unscharfen Maske fast immer erforderlich ist. Gute Ergebnisse lassen sich nur erzielen, wenn die Bilder im 16-Bit Format vorliegen und in PS auch so bearbeitet werden können (alte Versionen können nur 8-Bit Format verarbeiten, das reicht zum ordentlichen Schärfen nicht aus).

Im Allgemeinen beginnt man mit einer kräftigen Schärfung mit USM, zum Beispiel Pixelradius 1, Schwelle 0, 500%. Diese Schärfung wendet man zweimal an. Das dann eventuell sichtbare Rauschen wird mit GW Radius 0,4 gemildert, dann erfolgt erneut eine USM mit einem etwas größeren Pixelradius und einer höheren Schwelle, zum Beispiel Radius 1,7  Schwelle 5  Stärke 350 Prozent. Diese Werte müssen je nach Bild auch völlig anders gewählt werden, auch Zahl und Reihenfolge der USM und GW muss verändert werden, eine nicht ganz einfache Angelegenheit. Ein Beispiel für eine Schärfung nach obigem Schema ist dieser Clavius.

Schärfen mit Registax4 und AviStack: Die Wavelet-Schärfung mit diesen Filtern ist recht einfach, experimentell findet man die für das vorliegende Bildmaterial optimale Einstellung der Filterebenen relativ schnell. Das Beseitigen von Restrauschen ist mit diesen Filtern durch negative Einstellung der unteren Bildebene möglich, geht aber nur auf Kosten der Bildschärfe bei feinsten Details. Je nach Rohmaterial liefern diese Filter ein sehr gutes aber auch weniger gutes Ergebnis, wir haben sie daher nicht weiter untersucht. Bei AviStack 1.74 sind die Filter noch experimentell, und die neuen Filter von Registax5 haben wir noch nicht ausprobiert. Warten wir also ab, was sich da später ergibt......

Schärfen mit Giotto: Fertige .fit-Bilder aus AviStack sind zwar aus unerfindlichen Gründen vertikal gespiegelt, sie lassen sich aber ohne Probleme in Giotto laden. Das von Registax4 gelieferte TIF-Bild ist aus unerfindlichen Gründen der Grünkanal einer Farbaufnahme, und muss in Photoshop etc. in ein Graustufenbild umgewandelt werden, das dann in Giotto geladen und dort geschärft wird. Übersichtsaufnahmen ohne Barlow oder sogar mit Reducer muss man ganz anders bearbeiten (das geht oft sogar mit dem Wavelet-Filter von Registax und AviStack ganz gut), als die hoch auflösenden Bilder. Die hoch auflösenden Bilder filtern wir alle mit Giottos Mexican Hat, und zwar nur(!) mit Form: Rechteck, Charakteristik: Quadrat, Rauschfilter: Rechteck. Die Einstellungen der Filtergröße muss man ausprobieren, aber der Rauschfilter sollte immer direkt unter dem Schärfungsfilter liegen, also z.B. 3/5 oder 5/7 oder 7/9. Wie stark man schärft ist eine kritische Angelegenheit, weil auf diese Weise Artefakte im Bild entstehen können. Bei wissenschaftlichen Aufnahmen sollte man die Option „Kritische Dämpfung“ aktivieren, das verhindert zuverlässig „Überschwinger“ bei der Schärfung. Spätestens(!) kurz bevor die ersten aus dem Bildrauschen hervorgehenden Artefakte in ebenen Flächen auftreten, ist Schluss! Allgemein gilt: Will man später noch ein professionelles Rauschfilter einsetzen, so darf etwas mehr geschärft werden, sonst eher weniger. Das in einigen Giotto-Versionen fertig geschärfte .tif-Bild ist übrigens aus unerfindlichen Gründen ein Negativ, und muss mit Photoshop etc. erst in ein Positiv umgewandelt werden. Mit Photoshop kann dann noch eine Randbeschneidung und eine leichte Tonwertkorrektur erfolgen, sowie ein Rahmen und Beschriftung eingefügt werden. Bei gutem Seeing und ordentlichen Videos war das dann schon die Endstation. Gelegentlich ist noch eine minimale Nachschärfung mit der Unscharfen Maske von Photoshop sinnvoll.

 

Schärfen mit Fitswork 3.99: Fertige .fit-Bilder aus AviStack sind zwar aus unerfindlichen Gründen vertikal gespiegelt, sie können aber beim Einlesen in Fitswork umgedreht werden, wenn der entsprechende Menüpunkt gewählt wird. Zum Schärfen von Mondbildern sind primär die Gauss-Filter interessant, deren Funktion wir durch Anwendung auf bekannte Bilder und den Vergleich des Resultats mit früheren Ergebnissen anderer Filter untersucht haben. Für unsere Bilder war es sinnvoll eine iterative Gauss-Schärfung mit den Parametern Radius 1,5 bis 2 mit 10 bis 12 Iterationen bei ca. 100% Stärke mit einer normalen Gauss-Schärfung mit Radius 2 bei Schwelle 0 und Stärke 500% zu kombinieren. Nach dieser Vorarbeit haben wir mit Photoshop eine Unscharfe Maske angewendet mit Stärke 100%, Radius 1,4 und Schwelle 2, um den Schärfeeindruck zu verbessern.

 

In schwierigeren Fällen -wie dem Musterbild- wo z.B. wegen der sehr hellen Kraterränder mit hohem Gamma und geringem Kontrastumfang (mattes, kontrastarmes Bild) belichtet wurde, waren weitere Schritte erforderlich: Eventuell noch ein Unscharfe Maske mit Stärke 15%, Radius 250, Schwelle 0, um die schwache Struktur in Flächen zu verbessern, und dann noch eine Tonwertkorrektur zur Verbesserung der Strukturen speziell auch in sehr dunklen Gebieten, die im Musterbild sogar linear abnehmend (mit Hilfe einer Maske) über das Bild gelegt wurde. In Folge müssen nicht selten gröbere Artefakte der Schärfung aus dem Bild entfernt werden. Der Einsatz der Filter von Fitswork ist also nicht immer so schnell erledigt wie bei Giotto, das Ergebnis zeigt aber eine bessere Schärfung bei sehr kleinen Strukturen. Demgegenüber ist der Bildeindruck in der Fläche (speziell in dunklen Bereichen) bei kritischem Bildmaterial nur schwer auf einen ähnlich guten Stand wie bei Giotto zu bringen. Was bei einiger Mühe (speziell bei Fitswork war eine Nachbearbeitung erforderlich) in Etwa herauskommt, zeigen die folgenden Ausschnitte aus dem Musterbild:

 

 

Fazit: Die Schärfung ist wohl der wichtigste Schritt bei der  Erstellung von hoch auflösenden Mondbildern. Das Experimentieren mit Schärfungsfiltern ist daher von großer Bedeutung. Ohne uns genau festlegen zu wollen (dazu ist die Materie zu komplex) und ohne eine Empfehlung aussprechen zu wollen, listen wir hier die für unsere Mondbilder gültige Meinung auf, die sich noch ohne Berücksichtigung der endgültigen Filter von AviStack und Registax5 gebildet hat:

 

Seitenanfang



Teil 7: Bildverbesserung.


Professionelle Rauschfilter: Bei schlechteren Bedingungen gibt es einige Möglichkeit zur sehr effektiven Verbesserung des Bildes, zum Beispiel der Einsatz eines professionellen Rauchfilters. Ein solches Programm ist unbedenklich, weil es keine Artefakte schafft, im schlimmsten Fall werden aber im Bild vorhandene Strukturen „glattgebügelt“, was natürlich nicht der Sinn der Sache ist. Es ermöglicht z.B. das völlige Entfernen von starkem Rauschen in schwarzen Flächen bei gleichzeitiger Entfernung von minimalem Restrauschen in grauen Bereichen, oder die Beseitigung von winzigen Artefakten, die eventuell bei zu starkem Schärfen entstanden sind. Das alles erfolgt bei korrekter Bedienung praktisch ohne Verlust an wichtigen Details des Bildes. Bei uns kam gelegentlich eine ältere Version des Programms NeatImage Pro+ zum Einsatz. Die Angelegenheit ist nicht ganz einfach zu lernen, lohnt sich aber in jedem Fall! Hier nur ein kleiner Hinweis zum prinzipiellen Ablauf. Die Arbeit erfolgt in zwei Schritten:


Noch einen Hinweis zur Anwendung von professionellen Rauschfiltern, der auch für die Planetenfotografie gilt: Wer schon von Anfang an den Einsatz eines solchen Programms vorgesehen hat, sollte bei der Aufnahme eventuell ein etwas größeres Öffnungsverhältnis wählen, als nach unserer Formel aus SuW 6/08 für die optimale Anpassung der Kamera erforderlich ist. Damit erhöht sich wegen der geringeren Lichtstärke zwar das Rauschen, das dann aber mit einem professionellen Rauschfilter besser vom gröberen Bildsignal getrennt werden kann. Für Kameras mit ohnehin geringer Lichtempfindlichkeit ist diese Verfahren allerdings keinesfalls zu empfehlen! Auch bei der Schärfung des Bildes kann man etwas aggressiver verfahren, wenn später mit einem professionellen Rauschfilter nachgebessert wird.


Sonstige Bildverbesserung: Die ultimative Notbremse ist das Retouchieren. Bei wissenschaftlichen Aufnahmen ist das nur erlaubt, wenn eindeutig(!) erkannte Artefakte oder Fehler aus dem Bild entfernt werden können, ohne den Bildinhalt zu verfälschen, das machen professionelle Bildbearbeiter mit NASA-Aufnahmen gelegentlich auch. Für uns liegen die Hürden nicht so hoch: Bevor man ein mühsam erstelltes Bild wegwirft, könnte man z.B. eine von Registax eingefügte unsaubere Verbindung zweier MP-Bereiche mit Stempel oder dem Wischfinger bearbeiten, oder aus schwarzen Flächen in den Kratern Überschwinger der Schärfung entfernen. Retouchieren sollten aber auch wir nur, wenn eine Struktur eindeutig(!) als Artefakt erkannt ist, besser ist es jedoch darauf völlig zu verzichten, und nur beste Videos zu bearbeiten. Durch die Erstellung von Auswahlen (gegebenenfalls mit weichen Kanten), können bestimmte Bereiche des Bildes gezielt bearbeitet werden, es gibt eine Unmenge von Funktionen um ein Bild zu „verbessern“, unmöglich hier alle aufzuführen, die man jedoch nur sehr vorsichtig anwenden sollte. Wichtig ist folgende Regel:


Mehr Belichtungsspielraum: Bei Mondbilder tritt sehr oft der Fall ein, dass die Videokamera den extremen Helligkeitsunterschied z.B. zwischen dunklen Partien und hellen Kraterrändern nicht überbrücken kann. Das führt bei korrekter Belichtung der dunklen Bereiche zu einer krassen Überbelichtung der oft nur kleinen hellen Bereiche. Will man damit nicht leben, so muss man mit Gamma und Belichtungszeitwahl die Überbelichtung vermeiden. Das führt aber zu einer Unterbelichtung der dunklen Bereiche, die sich später bei der Bildbearbeitung kaum noch ausgleichen lässt. Ein Notbehelf ist eine Auswahl mit weicher Kante um die kleinen hellen Bereiche, um diese von der Tonwertkorrektur der dunklen Gebiete auszuschließen, wie wir es gelegentlich gemacht haben. Die einzige ordentliche Lösung wäre aber die Aufnahme zweier unterschiedlich belichteter Videos, die überbelichteten Teile (Krater etc.) können dann durch ordentlich belichtete Auswahlen aus dem kurzbelichteten Bild ersetzt werden. Ein Verfahren, dass bei Deepsky-Aufnahmen an der Tagesordnung ist.

 

Seitenanfang



Teil 8: Zusammenfassung der Ergebnisse.


Als Mitte 2007 die Idee aufkam, eine ordentliche Optik und eine gute Kamera zu beschaffen, war noch nicht abzusehen, wie mühsam das sein würde. Letztlich führte das zu unserem Kameratest in SuW Heft 6/2008, und zu einer recht ordentlichen 12“ ACF-Optik von Meade. Viel Erfahrung bei der Erstellung von hoch auflösenden Bildern hatten wir nicht, und es ergab sich für uns ein Lernprozess, dessen Ergebnis sich in diesem Tutorial von 2009 widerspiegelt.
Wichtig für das Gelingen guter Bilder sind demnach folgende Punkte:

 

Seeing  -  Kamera  -  Bildverarbeitung  -  Optik

 

Die Rolle des Seeings: Gehen wir einmal davon aus, dass auch in Mitteleuropa gelegentlich ausreichend gute Bedingungen für Aufnahmen mit sehr hoher Auflösung gegeben sind, so reduziert sich dieser Punkt auf ein genügend geduldiges Warten auf den richtigen Zeitpunkt. Das dauert natürlich um so länger, je größer der Durchmesser der Optik ist, wir erinnern uns: Die maximal erreichbare Auflösung ist direkt proportional zur Öffnung.

 

Die Rolle der Kamera: Die heute zur Verfügung stehenden CCD-Kameras (aber nicht CMOS) liegen in Bezug auf Lichtempfindlichkeit und Rauschverhalten zwar an der Grenze dessen, was man idealerweise wünschen würde (bei der Planetenfotografie wird es mit der Belichtungszeit oft schon arg knapp), aber es ist dennoch kein Problem zu akzeptablen Kosten eine sehr ordentliche Kamera zu erwerben, und wie von uns beschrieben an die Optik anzupassen. Bei Planetenaufnahmen mit monochromen Kameras folgt dann noch die Überlegung zur korrekten Filterwahl um optimale Ergebnisse zu erzielen, einige Anmerkungen dazu weiter unten. Wer mit Ir-Passfiltern ein IrGB oder ein IrRGB erzeugen will, sollte eventuell ein Kamera mit einem ExView-CCD verwenden, diese Chips haben ihre maximale Empfindlichkeit im Ir-Bereich. Ein unüberwindliches Problem ergibt sich jedenfalls bei der Wahl einer geeigneten Kamera nicht.

 

Die Rolle der Bildverarbeitung: Wer unsere kleinen "Tutorials" verfolgt hat kann unschwer feststellen, dass die ganze Angelegenheit zumindest bei hoch auflösenden Mondfotos und bei Planetenaufnahmen mit Farbkameras eigentlich keine Geheimnisse birgt, die nicht wie wir auch jeder andere Anfänger mit ein wenig Übung meistern kann:


Bis zum fertigen Mondbild dauert das dann nur die Rechenzeit des Computers plus wenige Minuten. Bei Planetenaufnahmen mit Farbkameras geht es übrigens noch schneller, man verfährt ebenso, benutzt aber zum Addieren Giotto ohne jede Qualitätsauswahl in der Option „Zentrieren auf helle Scheibe“. Auch zum Ausgleich der atmosphärischen Refraktion (Verschieben der Farbkanäle) ist Giotto gut geeignet. Nach kurzer Übungszeit erhält man ganz erstaunliche Bilder, die ein durchaus „gehobenes“ Niveau haben. Das gilt auch für die Planetenfotografie mit Farbkameras, die ohne jedes streng gehütete Wissen auch schöne Ergebnisse liefert wie Mars und Saturn. Die gezeigten Bilder entstanden in wenigen Minuten mit den oben erwähnten einfachen Schritten der Bildbearbeitung wie sie jeder Anfänger nach kurzer Übung machen kann. Wer auch als Anfänger bei der Planetenfotografie Filter verwenden möchte, sollte ein monochromes Luminanzbild unter Einsatz z.B. eines Rotfilters oder eines 685nm Ir-Pass Filters machen, und dann mit der Farbinformation einer Farbkamera kombinieren. Das liefert auf relativ einfache Weise ein IrRGB ohne Verwendung von RGB-Filtern. Die Technik hierzu haben wir untersucht, und in einem Nachtrag zu diesem Tutorial unten dargestellt. Jupiter wurde von uns mit dieser Technik fotografiert. Das Geheimnis guter Bilder liegt also definitiv nicht in besonders ausgefeilten „geheimen“ Methode der Bildbearbeitung, es geht auch ohne aufwändige Verfahren mit zigfachen komplizierten Bearbeitungsschritten! Halten wir also fest, was den Neuling motivieren sollte:


Profis werden bei der Bildbearbeitung mit allen möglichen Tricks zwar immer noch etwas mehr aus ihren Bildern herausholen, aber der Unterschied hält sich in Grenzen. Für die Planetenfotografie mit Filtern z.B. im LRGB, IrRGB, RGB-Verfahren gilt diese Aussage nur eingeschränkt, hier ist Erfahrung sehr nützlich, wird aber leider nicht immer im erwünschten Maße weitergegeben. Ein Beispiel hierfür ist die Homepage von Damian Peach, der ganz hervorragende Mond und Planetenbilder liefert. Obwohl er mit einem unnötig großen Öffnungsverhältnis arbeitet, bringt er das C14 exakt an die von uns berechnete Grenze der Auflösung. Hervorstechendes Merkmal seiner Aufnahmen ist dabei das Fehlen des sonst oft noch vorhandenen „Grauschleiers“ bei den Planetenaufnahmen. Information über seine Art der Bildverarbeitung sucht man jedoch auf seiner Homepage vergeblich, dafür gibt es gegen Bezahlung eine DVD, die dann vermutlich auch nicht viel weiter hilft. Das finden wir sehr schade!


Die Rolle der Optik: Wenn also nun die Bildbearbeitung (abgesehen vom LRGB-Verfahren etc.) kein besonderes Wissen erfordert, warum liefern einige Leute hervorragende Bilder, während andere es maximal zu mittleren Achtungserfolgen bringen? Die Antwort darauf ist einfacher als man denkt: Was ein Video zeigt, ist mit einfacher Bildverarbeitung auch für weniger Geübte zugänglich, was ein Video nicht zeigt, bringt auch der beste Profi nicht hervor. Das Geheimnis liegt in der ausgesucht guten Optik die sich alle Amatuer-Profis irgendwie beschafft haben. Videos mit solchen Optiken unter guten Bedingungen aufgenommen, werden auch jedem weniger geübten Bearbeiter zu hervorragenden Bildern verhelfen. Von der Richtigkeit dieser Aussage konnte sich jeder selbst überzeugen, der das von uns früher mal auf CD angebotene Mondvideo mal kurz durch Registax und Giotto gejagt hat. Halten wir also fest:


Hier ist guter Rat teuer, aber in Bezug auf die Qualität gibt es einige Denkansätze:


Wir prüfen die Optik beim Händler am künstlichen Stern, ist die Optik hier in Ordnung, so ist eine Rückgabe nach dem späteren Test, wie im Tutorial 1 beschrieben, eher unwahrscheinlich. Auf diese Weise sind wir auch an unsere recht gute Meade 12“ ACF- Optik gekommen. Hilfreich ist auch Folgendes: Einige Händler und Firmen bewerben ihre Produkte in den höchsten Tönen: Professionelle Optik, Qualität von professionellen Observatorien, Test-Protokolle aus fragwürdigen Quellen, Hersteller zeigen in der Werbung Bilder von perfekten Sterntests, die eine solche Optik in der Praxis nie liefern wird. Solche Werbeaussagen z.B. im Internet kann man kopieren, und später vorlegen, falls das Produkt die Anforderungen der Werbung nicht erfüllt. Umtausch bzw. Rückgabe sollte dann kein Problem sein. Wichtig ist es aber, dem Händler vor dem Kauf eindeutig zu sagen, dass die Optik für hoch auflösende Fotografie verwendet werden soll, eine Feilscherei um den billigsten Preis sollte man auch nicht anfangen, sondern eher für die Prüfarbeit freiwillig einen deutlichen Aufpreis anbieten….


Optikgröße: Wie wir im Tutorial gesehen haben, bestimmt einzig und allein der Durchmesser der Optik die maximal erreichbare Auflösung. Schon eine geringe Steigerung des Durchmessers von 2“ hat enormen Einfluss auf die Bildqualität. Dazu eine kurze Betrachtung: Im Amateurbereich haben zumindest fast alle Optiken aus der Massenproduktion eine mehr oder weniger kräftige Sphärische Aberration (SA) oder Zonen. Diese Problematik wächst oft mit steigender Größe der Optik. Das bewirkt nun, dass immer nur das Licht von einem bestimmten Teil der Spiegeloberfläche exakt in den Fokus fällt, das restliche Licht bleibt leicht defokussiert. Ein defokussiertes Bild zeigt aber extrem stark jede Luftunruhe (einige Astronomen fokussieren daher nicht auf maximale Schärfe, sondern auf minimale Bewegung im Bild). Besonders eine große Optik mit SA oder Zonen kann daher selbst bei relativ gutem Seeing nie ein ruhiges Bild zeigen. Daher hält sich hartnäckig die Vorstellung, dass das Seeing mit größer werdendem Optikdurchmesser immer mehr Probleme macht. In der Tat sind Optiken bis maximal 15cm Öffnung etwas weniger seeinganfällig, bei Durchmessern deutlich darüber ist es aber so, dass im Amateurbereich auch bei schlechten Bedingungen niemals die kleinere Optik das bessere fotografische Ergebnis liefert. 10“ bringen also auch bei schlechtem Seeing keinen Vorteil gegenüber 20“, mit besser werdendem Seeing spielen dann die 20“ immer gnadenloser ihren Vorteile aus! Wir halten also fest:


Für beste Ergebnisse bei Mond oder Planeten sind –mit der angestrebten Auflösung steigend- leider so gute Bedingungen erforderlich, wie es sie an einem durchschnittlichen Beobachtungsplatz nur an ganz wenigen Tagen im Jahr gibt. Man muss also an jedem klaren Abend einen Versuch machen, der nur in ganz wenigen Fällen das erwünsche Ergebnis liefert. Das ist für „Normalverbraucher“ wie uns, die ihre klapprige gebraucht- Montierung immer neu aufbauen müssen, eine Katastrophe! Profis habe oft ein Hütte mit fest installiertem Teleskop auf einer ordentlichen Montierung, und können mal eben probeweise „durchschauen“, ob das Seeing passt. Falls nicht klappt man die Hütte zu, bequemer geht es dann nicht mehr. Trotz aller dieser Hindernisse sollte man sich aber nicht entmutigen lassen. Man berechnet zunächst wie in unserem Tutorial beschrieben ganz realistisch, was mit der eigenen Öffnung an Auflösung maximal möglich ist, und freut sich dann, wenn es gelungen ist, dieser Vorgabe nahe zu kommen……


Unsere Arbeit ist damit vorerst beendet. Was wir aus unserer beschränkten Erfahrung heraus beitragen können, haben wir hier vorbehaltlos zu Protokoll gegeben. Einige interessante Fragen sind noch offen geblieben, und können eventuell später noch beantwortet werden!

 

Seitenanfang


 

Teil 9: Nachtrag zum Thema Filter und Infrarotfotografie.


Bei der Fotografie von Mond und Planeten kämpft man ständig mit Problemen, die das Ergebnis der Bemühungen verschlechtern. Drei dieser Probleme lassen sich unter gewissen Bedingungen durch den Einsatz von Filtern zumindest teilweise in den Griff kriegen:

Wer nun ein Kochrezept zur Verwendung von Filtern erwartet, wird enttäuscht sein. Bei der Verwendung von Filtern spielen so viele Faktoren eine Rolle, dass es unumgänglich ist, sich zunächst mit den Wirkungen der Filter vertraut zu machen. Nur so kann man dann in Einzelfall den Nutzen gegen die Nachteile abwägen, und zu einer geeigneten Auswahl kommen.

 

Was ist atmosphärische Refraktion? Licht von tief stehenden Objekten tritt unter einem flachen Winkel in die Atmosphäre ein, und wird daher wie an einem Prisma gebrochen. Im Bereich des sichtbaren Lichts nimmt die Brechung mit zunehmender Wellenlänge deutlich ab (Dispersion). Blaues Licht wird also stärker abgelenkt, und scheint daher für einen Beobachter in der rückwärtigen Verlängerung des Lichtweges von weiter oben zu kommen, rotes Licht wird weniger gebrochen, und scheint daher von weiter unten zu kommen. Das Bild eines Planeten besteht also aus mehreren leicht gegeneinander verschobenen farbigen Bildern, von denen das blaue Bild ganz oben, und das rote Bild ganz unten liegt (erkennbar an einem blauen Farbsaum oben, und einem roten Farbsaum unten, siehe Jupiter links oben).

 

Wie beseitigt man atmosphärische Refraktion? Bei Farbbildern ist das recht einfach. Man zerlegt das Bild in die RGB - Kanäle (Rot, Grün, Blau), und verschiebt Blau nach unten, und Rot nach oben, bis alle drei Kanäle exakt übereinander liegen, siehe 2. Bild links oben. Bei s/w - Bildern ist eine nachträgliche Korrektur so nicht möglich, man muss schon bei der Aufnahme ein Farbfilter verwenden (geeignet sind IR, R, G) damit ein scharfes Bild auf die Kamera gelangt. Welches Filter man wählt hängt von der Luftunruhe ab, und wird weiter unten erläutert.

 

Was ist Luftunruhe? Beim Durchlaufen der Atmosphäre passiert das Licht Bereiche unterschiedlicher Dichte. diese können oft sehr klein sein (Turbulenzzellen). Dabei wird das Licht in schnellem Wechsel in die verschiedensten Richtungen gebrochen, und kann in der Kamera kein scharfes Bild mehr erzeugen. Besonders schlimm ist das, wenn der Lichtweg in der Atmosphäre sehr lang ist, also bei tief stehenden Objekten, die Auswirkungen auf die Abbildung sind dann katastrophal, Fotografie ist unmöglich. Da in unseren Breiten das "Seeing" nur selten wirklich gut ist, macht man sich natürlich Gedanken darüber, ob es da eine Abhilfe gibt.

 

Wie beseitigt man die Auswirkungen von Luftunruhe? Eine nachträgliche Beseitigung der Unschärfe durch Luftunruhe ist (bis auf das übliche Schärfen mit Schärfungsfiltern und die Zerlegung des Bildes in Teilbereiche bei der Bildbearbeitung) unmöglich. Nun ist es aber so, dass die Brechung (Refraktion) und die damit auch verbundene Aufspaltung in Farben (Dispersion) mit steigender Wellenlänge abnimmt. Rotes oder gar infrarotes Licht wird erheblich weniger gestört als grünes oder blaues Licht. Bei s/w - Bildern setzt man einfach ein Infrarot - Passfilter vor die Kamera um die Abbildung zu verbessern. Das ist problemlos möglich, weil die modernen Kameras (speziell mit ExView -  CCD) gerade im Infrarot eine sehr hohe Empfindlichkeit haben. Die Verbesserung der Abbildung ist beträchtlich, siehe Mondbilder . Ir-Passfilter können beim Mond allerdings auch die Differenzierung von Graustufen leicht verschlechtern. Bei Farbe ist es etwas komplizierter. Hier macht man sich zu Nutze, dass das Auge die Bildschärfe nicht nach der Farbe (Chrominanz), sondern nach dem Hell-Dunkel-Anteil (Luminanz) eines Bildes beurteilt. Man fertigt also mit dem Ir - Filter ein brauchbares s/w - Bild, und setzt die Farbe eines unbrauchbaren "normalen" Farbbilds ein. Das Ergebnis ist eine durchaus brauchbares Ir-RGB, siehe Jupiterbild oben rechts. Bei weniger starker Luftunruhe kann auch ein R-RGB oder sogar G-RGB die Bildqualität verbessern, wobei diese Filter die Belichtungszeit nicht so extrem verlängern wie ein Ir-Filter. Nur auf diese Weise konnten wir trotz miserabler Bedingungen 2008 noch recht nette Aufnahmen von Jupiter als Ir-RGB machen, und unter nicht ganz so schlechten Bedingungen 2009 ein Bild von Saturn als R-RGB. Ein weiteres Ir-RGB von Jupiter entstand bei etwas besseren Bedingungen 2011.

 

Was ist schlechte Farbkorrektur? Mit astronomischen Teleskopen können nicht alle Wellenlängen (Farben) ohne Probleme in einem einzigen Brennpunkt gesammelt werden. Das führt zu Farbsäumen an den Bildern und reduziert den Kontrast erheblich, weil immer nur eine Farbe im Fokus ist. Besonders kritisch ist das bei Linsen, weil Gläser die verschiedenen Wellenlängen unterschiedlich brechen. Auch extrem teure Apochromaten haben noch restliche Farbfehler, und sei es nur im unsichtbaren IR oder UV (das aber von einer Kamera im Gegensatz zum Auge sehr wohl "gesehen" wird). Spiegel haben mit Farbfehlern kein Problem, sind sie mit Glas kombiniert (wie bei einem SC) so treten auch hier geringe Farbfehler auf. Die bei den Kameras vorgeschalteten Barlows oder Konverter bewirken ebenfalls (oft nur geringe) Farbfehler.

 

Wie beseitigt man die Auswirkungen schlechter Farbkorrektur? Bei Farbkameras ist eine Beseitigung der Unschärfen durch Farbfehler der optischen Komponenten leider unmöglich. Teilweise Abhilfe schafften nur eine bessere Optik, eine spezielle Korrekturlinse die für einige Refraktoren zur Verfügung steht, oder spezielle Filter zur Verringerung der Farbfehler ohne das Bild zu sehr einzufärben (z.B. Semi-Apo-Filter, Fringe-Killer). Bei Schwarz-Weiß Kameras liegt das Problem anders. Hier kann man Farbfilter einsetzen die die von der Optik nicht korrekt fokussierten Farben nicht durchlassen. Ist z.B. ein teurer APO im Sichtbaren Licht ohne Tadel, bildet aber IR und /oder UV nicht richtig ab, so verwendet man einen IR bzw. IR/UV Sperrfilter. Ist ein billiger Refraktor nur für Grün gut korrigiert, so verwende man ein Grünfilter. Das kann dann oft zu extrem guten Bildern führen, leider aber keinen Farbbildern. Es gibt aber noch einen Trick, wie man dennoch zu ordentlichen Farbbildern kommt: Man macht drei Bilder mit R, G, B-Filter, und setzt diese drei s/w-Bilder dann im Computer zu einem RGB-Farbbild zusammen, ein etwas kompliziertes Verfahren, aber in diesem Fall die einzige Lösung.

 

Also Alles bestens? - Leider nicht ganz!  Filter können bei schlechten Bedingungen die Bildqualität zwar ganz erheblich steigern, leider verlängern sie aber die Belichtungszeit, und verringern frequenzproportional die Auflösung des Teleskops, Beispiel Ir - Filter: Bis 30% weniger Auflösung bei vierfacher Belichtungszeit. Man sollte eigentlich also wegen der Auflösung möglichst ein Filter für eine kurze Wellenlänge wählen. Da aber gerade das kurzwellige Blau stark in der Atmosphäre gestreut wird, würde die Wahl eher auf Grün fallen. Will man Luftunruhe kompensieren, so ist man zur Anwendung von Rotfilter oder sogar Ir-Filter gezwungen. Wir haben ein Ir-Filter mit 685nm verwendet, von der Auflösung her noch ein vertretbarer Kompromiss. Es gibt Filter die noch weiter im IR liegen, aber Vorsicht: Solche Filter verlängern die Belichtungszeit enorm, weil die Empfindlichkeit der CCD-Kamera in diesem Bereich oft schon wieder abnimmt. Wer eine für IR brauchbare Optik hat (und das sind z.B. praktisch alle Spiegel), und eine genügend empfindliche Kamera, der sollte bei schlechtem Seeing unbedingt mal Aufnahmen mit IR-Passfilter versuchen. Bei sehr gutem Seeing bringt das Filter nur dann Vorteile, wenn das Objekt bei einer s/w-Aufnahme sehr niedrig steht (atmosphärische Refraktion), bei gutem Seeing und hoch stehendem Objekt ist das Filter unnötig, ohne Filter werden dann (bis auf wenige Ausnahmen) die besten Ergebnisse erzielt.

 

Eigenschaften von Filtern bei der Verwendung  einer s/w-Kamera

Filter

Atmosphärische

Dispersion

Theoretische

Schärfe

Einfluss

Luftunruhe

Verlängerte

Belichtung

Farbfehler

der Optik

Erhöhter

Kontrast

IR pass

+

-

++

--

(+)

(+)(-)

Rot

++

-

+

-

++

(+)

Grün

++

o

o

-

++

(+)

Blau

++

+

--

--

(+)

(+)

IR sperr

o

(+)

o

-

+

(+)

 

(+) bedeutet: Wirkung von Fall zu Fall verschieden.      O bedeutet: keine wesentliche Wirkung.

 

Eigenschaften von Filtern bei der Verwendung  einer Farbkamera

Filter

Atmosphärische

Dispersion

Theoretische

Schärfe

Einfluss

Luftunruhe

Verlängerte

Belichtung

Farbfehler

der Optik

Erhöhter

Kontrast

IR sperr

(+)

o

o

-

+

(+)

Fringe Killer

 

o

o

-

+

(+)

Semi-Apo

 

o

o

-

+

(+)

Kontrast Filter   o o - (+) (+)

 

Ausnahmen von der Regel?  Unter gewissen Umständen sollte man Filter auch bei besten Beobachtungsbedingungen verwenden. Gelegentlich können Details bestimmter Farbe auf Planeten durch die Verwendung eines geeigneten Filters verstärkt hervorgebracht werden, eins von vielen  Beispielen sei die Darstellung von Wolken auf der Venus mit einem UV-Passfilter oder die Fotografie des Mars mit einem IR-Filter.


Seitenanfang