Erstellung hoch auflösender Mond/Planetenaufnahmen (Version 5.3)

Von Peter Wellmann


 

 

 

Vorwort:  Unser Tutorial wird gelegentlich überarbeitet und an neue Erkenntnisse angepasst. Im Laufe der Jahre hat sich die Technik zur Erstellung von Mond/Planetenbildern verfeinert, und die Geräte wurden besser. In Folge entstanden Mondbilder sehr guter Qualität, die für den von uns verwendeten Fernrohrtyp (Schmidt Cassegrain) und die zur Verfügung stehende Öffnung (30cm) fast  an der Grenze des theoretisch Machbaren liegen. Unsere Bilder landeten in Büchern, auf Astro-CD, als "Picture of the Day" in den USA, und wurden in bekannten Astronomie Zeitschriften gedruckt. Da es nicht ganz einfach ist solche Bilder zu fertigen, haben wir hier zusammengestellt was uns in diesem Zusammenhang wichtig erscheint. Fast alle der vorgestellten Verfahren eignen sich auch für bestimmte Bereiche der Planetenfotografie. Wer also Bilder wie die folgenden Beispiele  1.Terminator  2.Rupes Recta 3.Apenninen 4.Saturn 5.Mars 6.Jupiter IR-RGB erstellen möchte, ist sicher an dieser Information interessiert. Alle Aussagen in diesem "Tutorial" kommen aus der Praxis unserer Aufnahmen. Von uns hergeleitete Formeln wurden mit Daten aus Bildern anerkannter Mondfotografen und der NASA abgeglichen, und bedürfen daher keiner Diskussion. Wer anderer Meinung ist, darf das gerne sein! Wir verweisen bei dieser Gelegenheit auf zusätzliche Infos über Kameras, die wir als wichtige Ergänzung zu diesem Tutorial betrachten, die wir aber wegen des erheblichen Umfangs gesondert bearbeitet haben. Es geht dabei um neuere Kameraversionen, das Problem des Rolling Shutters bei CMOS Kameras, und die Verlängerung von USB3.0 Anschlüssen zur Kamera am Teleskop. Noch ein Hinweis: Wegen der oft falschen Verwendung des Begriffs "Öffnungsverhältnis" und missverständlicher Bezeichnungen wie z.B. f/10 verwenden wir ab sofort nur noch den klar definierten Begriff "Blendenzahl" oder kurz "Blende", wie er in der Fotografie üblich ist. Blendenzahl = Brennweite/Öffnung. Ein SC mit einer Brennweite 300 cm und Öffnung 30 cm hätte also Blendenzahl 10.

 



Teil 0: Montierung und Optik:


Die Montierung: An die Montierung werden bei hochauflösender Fotografie von Mond und Planeten bis auf das Vorhandensein einer elektrischen Nachführung keine besonderen Ansprüche gestellt. Für die Aufnahme von kurz belichteten Einzelbildern ist sogar eine polare Ausrichtung entbehrlich, die Montierung darf allerdings bei der Nachführung (und möglichst auch bei der Korrektur) keine Schwingungen produzieren. Das überprüft man am einfachsten durch die Betrachtung eines Sterns bei extrem hoher Vergrößerung und absolut ruhiger Luft. Zum Gegencheck schaltet man die Nachführung aus, bewegt sich der Stern dann völlig ruhig und geradlinig aus dem Bildfeld, so war ein eventuell zuvor vorhandenes Zittern durch die Montierung verursacht, und nicht durch mangelhaftes Seeing. Eine Handsteuerbox für die Feinbewegung und zur Betätigung eines Elektrofokussierers wäre sehr hilfreich. Sollen Mosaike aus mehreren Bildern erstellt werden, so muss die Montierung relativ gut polar ausgerichtet werden, damit sich bei der längeren Aufnahmezeit für die Serie die Bilder nicht gegeneinander verdrehen.


Die Optik: Hochauflösende Fotografie ist (perfekte Optik und Kamera vorausgesetzt) eine reine Öffnungsfrage. Sage mir, welche Öffnung dein Teleskop hat, und ich sage dir, welche Auflösung du bei besten atmosphärischen Bedingungen erreichst. Entscheidend für die maximale Auflösung ist auch bei flächenhaften Bildern der Durchmesser des zentralen Beugungsscheibchens (Airy-Disk) das eine Optik von einem Lichtpunkt liefert, weil sich auch ein flächenhaftes Bild aus einzelnen, sich überlagernden Bildpunkten aufbaut. Mäßig obstruierte Spiegel (Obstruktion = teilweise Abdeckung des Hauptspiegels durch den im Strahlengang befindlichen Sekundärspiegel) sind bei hoher Auflösung gegenüber Refraktoren eher im Vorteil, weil sie deutlich kleinere Airy-Disks produzieren können, und damit höhere Auflösung liefern. Sie haben zwar mehr Licht in den Beugungsringen, und daher einen geringeren Kontrast als ein Refraktor (also einen schlechteren visuellen Schärfeeindruck), aber das lässt sich fotografisch sehr leicht bei der Bildbearbeitung ausgleichen. Aus diesem Grund haben übrigens obstruierte Systeme auch bei der Trennung von Doppelsternen die Nase vorne.

 

 

Spiegel oder Refraktor: Prinzipiell hat man die Wahl zwischen Refraktor und Spiegelteleskop, in den Foren kann man regelmäßig einen geradezu lächerlich absurden Kleinkrieg zwischen den Anhängern des jeweiligen Optiktyps kopfschüttelnd verfolgen. So belustigend das auch sein mag, für Einsteiger kommt dabei keinerlei sinnvolle Information zutage. Wir haben es hier leichter, weil es bei uns um hochauflösende Mond/Planetenfotografie geht, was die Auswahl bereits deutlich einschränkt. Für beide Systeme gilt die zuvor gemachte Aussage über die Öffnung. Sie bestimmt alleine darüber, wie detailliert die Bilder im besten Fall werden können. Bilder desselben Objekts sind bei gleichem Schärfeeindruck zum Beispiel bei einer 30cm Optik dreimal größer als bei einer 10cm Optik, das Bild der 30cm Optik hat die neunfache Fläche, und zeigt eine Unmenge von Details, die die kleine Optik nicht einmal andeutungsweise hervorbringt. Wer also ein schönes Übersichtsbild vom Mond machen möchte, ist mit der kleinen Optik gut bedient, und kann wegen der  kleinen Öffnung auch bei weniger perfektem Seeing schöne Bilder machen. Wer hingegen auf kleine Krater Jagd machen will, ist damit chancenlos. Auch Planetenbilder sind bei 10cm Öffnung nur kleine Scheibchen, während Optiken von 20-30cm (allerdings nur bei gutem Seeing) schon eine Unmenge von Details hervorbringen. Gute Refraktoren mit dieser Öffnung sind unbezahlbar teuer, schwer und unhandlich, und scheiden daher für hochauflösende Fotografie aus. Um es noch einmal krass zu formulieren: Wir haben einen apochromatischen 18cm Refraktor der 10.000 Euro Klasse, der sogar schon bei nicht ganz perfektem Seeing absolut begeisternde Bilder am theoretischen Limit liefert. Gegen ein gutes Celestron C11 oder gar ein Meade 12" AFC bringt er aber kein Bein auf den Boden, und verstaubt daher ungenutzt im Schrank.

Bleibt also nur der Spiegel, und den gibt es in vielen Ausführungen. Speziell bei größerer Öffnung tendieren wir eindeutig zum Schmidt Cassegrain (SC). Diese Optiken haben kurze Tuben, mäßiges Gewicht und große Öffnung zu noch bezahlbarem Preis. Der durch die Schmidtplatte geschlossene Tubus schützt die Optik vor Umwelteinflüssen, und die Justage (Kollimation) der Optik ist nicht sehr schwierig. Wer ein anderes System bevorzugt ist ebenfalls gut bedient, bitte vor der Anschaffung genau bei Astrofreunden oder Händlern vor dem Kauf anschauen. Preiswerte Spiegelteleskope (insbesondere SCs) haben allerdings zu Recht einen schlechteren Ruf als Refraktoren. Der gründet sich im Wesentlichen darauf, dass apochromatische (also farbreine) Refraktoren großer Öffnung extrem teuer sind, und daher prinzipiell eine hohe Qualität aufweisen (wer lässt sich schon für etliche tausend oder gar etliche zehntausend Euro ein Gurke anhängen), Spiegel hingegen fast alle aus mehr oder weniger billiger Massenproduktion stammen, und auch in entsprechend reduzierter Durchschnittsqualität auf den Markt kommen. Es gibt zwar einzelne Geräte mit gutem Ruf, wie z.B. das Celestron C9,25 mit seiner angeblich legendären Qualität, und die Meade ETX Teleskope mit ihren fast perfekten Optiken. Normalerweise bleibt es dem Amateur jedoch leider nicht erspart, jede Spiegeloptik (ganz besonders ein SC) auch mit einem 98% Strehl Protokoll (Strehl 100% = perfekte Optik), Papier ist geduldig, selbst auf die Tauglichkeit für hoch auflösende Fotografie zu testen.


Test: Da der Test am Himmel wegen der üblichen durchschnittlichen Seeing-Bedingungen (Seeing = Luftunruhe, schlechtes Seeing zerstört das Bild) oft problematisch ist, bleibt nur die terrestrische Variante, vorzugsweise in der Nacht bei ganz ruhigem Bild. Man betrachtet mit dem minuziös und akribisch kollimierten Teleskop (diese Justage ist extrem wichtig, wer da keine ausreichende Erfahrung hat, sollte unbedingt einen Experten zu Rate ziehen) bei ganz ruhiger Luft ein mindestens 60-100m entferntes, extrem feingliedriges Objekt (z.B. kleine Kratzer auf dem Blech einer Dacheindeckung, feinste Risse im Putz eines Kamins, besser aber nachts gut sichtbare feinste Strukturen wie die Flügel oder Beine von Insekten, die an den Gläsern vieler Straßenlaternen hängen) mit einem guten Okular. Sind diese Strukturen gefühlsmäßig gut scharf bis zu einer Vergrößerung

Es mag etwas verwundern, dass wir die letzte Kategorie, die oft nur für Refraktoren reklamiert wird, auch auf Spiegel anwenden, aber wie oben dargestellt liefern perfekte Spiegel fotografisch theoretisch mindestens so scharfe Bilder wie Refraktoren, und unsere Tests an Dutzenden von Teleskopen haben dieses Vorgehen bestätigt. So liefert die drei von uns im Moment verwendeten 28/30cm SC Optiken bis weit in den Bereich der „leeren“ Vergrößerung hinein bei 850/900fach an meinem terrestrischen Standard-Objekt absolut untadelige Bilder, und das, obwohl die Optiken teilweise im sehr ausführlichen interferometrischen Test durchaus noch erhebliche Rauhigkeit und geringe andere Fehler zeigen. Abschließend sei noch einmal darauf hingewiesen, dass man solche Vergrößerungen nur selten am Himmel prüfen kann, weil die Luft dazu in unseren Regionen (fast) nie ruhig genug wird! Auch zeigt unsere Erfahrung (leider), dass nur ein geringerer Teil der Produkte aus der Massenfertigung die dritte Stufe der obigen Skala erreichet. Erfüllt die Optik nur die erste Stufe, so würden wir sie umgehend dem Händler zurückgeben! Wichtige Info zu diesem Problem findet sich auch im Teil 8 des Tutorials unter "Die Rollle der Optik".

 

Kollimation: Weil sie so wichtig ist, hier nun doch einige Hinweise zur Kollimation eines SC. Mehrere Warnungen vorab: Kollimiert wird durch Verstellen des Sekundärspiegels in der Schmidtplatte mittels drei Schrauben. Diese dürfen nicht stärker gelockert werden, sondern müssen immer deutlich unter Spannung bleiben. Ein zu festes Anziehen ist aber auch nicht gut. Muss man eine von ihnen deutlich lockern, müssen zum Ausgleich die anderen Schrauben etwas angezogen werden. Wir ersetzen eventuell verwendete Kreuzschlitz Schrauben durch Inbuss Schrauben aus Edelstahl. Da es sich normalerweise um Zollschrauben handelt, ist das eine Sache des Händlers. Beim Tausch darf immer nur eine Schraube gelöst und ersetzt werden, der Tubus muss dabei auf dem Tisch liegen, damit im Ernstfall keine Teile auf den Hauptspiegel fallen. Bei neueren Celestron kann man den Sekundärspiegel ganz einfach aus der Schmidtplatte entnehmen (dünne weiße Handschuhe tragen), darf dann aber keinesfalls Staub oder Fingerabdrücke produzieren. Den Spiegel sollte man nur nach Rücksprache mit einem Experten reinigen, er ist extrem kratzempfindlich. Vorsicht mit speziellen Schrauben, die von Hand gedreht werden können. Dieses Zubehör ist enorm praktisch, die Schraubenköpfe dürfen aber keinesfalls mit dem Tubus Schutzdeckel in Kontakt kommen, auch nicht bei kräftigem Druck auf den Deckel, sonst droht Zerstörung der Schmidtplatte.

 

Wichtig: Wegen der geringen Fertigungsqualität bei Massenware verändert sich oft die Kollimation beim Umfokussieren des Teleskops von nah auf fern oder sogar von visuell auf fotografisch. Daher sollten zum Beispiel Kamera und Okular so angebracht werden, dass beim Übergang von visuell auf fotografisch möglichst wenig nachfokussiert werden muss.

 

 

Zum Kollimieren sucht man sich bei ruhiger Luft und voll ausgekühlter Optik einen nicht zu hellen hochstehenden Stern, und schaut ihn zunächst bei mittlerer Vergrößerung als defokussierte Scheibe an (Abbildung 1). Das defokussierte Bild muss absolut rund und rotationssymmetrisch sein. Ist es das nicht, korrigiert man durch vorsichtiges Verstellen der Schrauben. Dann nähert man sich dem Fokus an, was die Scheibe verkleinert. Zeigt das Bild dabei Unsymmetrie (wie in Abb. 2), korrigiert man erneut mit den Stellschrauben. Wird die Scheibe in Fokusnähe sehr klein, wechselt man auf eine starke Vergrößerung, etwa zweimal Optikdurchmesser in Millimeter (Abbildung 3), und korrigiert die eventuell erneut aufgetretene Unsymmetrie sehr sorgfältig. Das Spielchen setzt man fort, bis der Fokus erreicht ist. Dreht man den Fokusknopf noch weiter, so sollte das nun wieder größer werdende Bild absolut rund und zentriert bleiben. Unter ganz optimalen Bedingungen sieht man im Fokus bei bester Kollimation an einem sehr schwachen, möglichst hoch stehenden Stern ein kleines Scheibchen (Airy Disk) umgeben von einem oder zwei Ringen (Abbildung 4). Die Bilder 2,3,4 stammen von unserem Celestron C11 EHD, und wurden bei der Kollimation in Labor aufgenommen, was deutlich bequemer ist als am Himmel. Sehr bequem ist die Kollimation auch mit einer exakt an das Teleskop angepassten Kamera (siehe Teil 3) mit dem Bild auf dem Laptop. Wir haben vom PC im 1. Stock ein HDMI-Kabel zum Teleskop verlegt, und dort einen auf einem Fotostativ stehenden kleinen Full HD Monitor angeschlossen, den wir uns beim Kollimieren direkt vor die Nase stellen. Das hat auch den Vorteil der Kollimation in der endgültigen Kameraposition, denn stärkeres Nachfokussieren verdirbt oft (Massenproduktions-Qualität) die Justage.

 

Beurteilung: Sieht man nach der Kollimation ein Bild wie in Abbildung 4, so ist die Optik sehr gut. Auch bei guten SC zeigen sich gelegentlich weitere sehr lichtschwache Dinge die da nicht hingehören, was einen aber nicht sonderlich beunruhigen sollte. Unproblematisch sind auch die hellen und dunklen Knoten sowie die ausgefransten Ränder in den intra/extrafokalen Bildern A und B, sie stammen von der Luftunruhe und nicht von der Optik. Strömungen im nicht ausgekühlten Tubus bewirken zudem die auffälligen Muster unten bzw. oben im Bild (rote Pfeile), die jedoch bei genügender Auskühlung verschwinden (Abbildung 1). Abbildung 1 zeigt also, dass die Optik ausgekühlt ist, und das Seeing nicht ideal aber ausreichend für brauchbare Fotos ist (Seeing Schulnote 2-3).

 

1. Sphärische Aberration (SA): Unerwünscht sind starke Unterschiede im Aussehen der intra/extrafokalen Scheiben des defokussierten Sternbilds. Solche Unterschiede sieht man bei unserem "normalen" Celstron C 11 in noch tolerierbarer Form, siehe Abbildung A/B. Im Gegensatz zu A zeigt B deutliche Ringstrukturen. Diesen Fehler nennt man SA. SA  führt dazu, dass verschiedene ringförmige Zonen des Spiegels niemals gleichzeitig exakt im Fokus sind. Ein nicht fokussierter Teil des Spiegels erzeugt dann bereits bei moderater Luftunruhe ein unruhiges Bild mit seitlichen Lichtausbrüchen, was unter anderem zu hässlichen Doppelkanten an Kraterrändern führt. Bei einer guten Optik verschwinden diese Kanten beim exakten Fokussieren bei ordentlichem Seeing fast komplett, weil alle Teile des Spiegels gleichzeitig in den Fokus kommen. Einige Beobachter fokussieren daher nicht auf maximale Schärfe, sondern auf minimale Bewegung im Bild. Geringe SA ist tolerierbar, und kommt auch bei sehr guten SC vor.

 

2. Nicht sphärische Fehler: Im Fokus sollte bei ganz ruhiger Luft bei hoher Vergrößerung und einem schwachen Stern ein Scheibchen mit (beim SC) maximal zwei nach außen schwächer werdenden Ringen erscheinen. Bei hellen Sternen und  bei Luftunruhe sieht man nur ein flirrendes Knäuel mit sternförmigen Lichtausbrüchen, die bei einer gut kollimierten Optik nach allen Seiten statistisch verteilt gleichmäßig sein sollten. Ist diese gleichmäßige Verteilung der Lichtausbrüche trotz Kollimation nicht gegeben, hat die Optik nichtsphärische Fehler, und ist je nach Stärke dieser Fehler für hoch auflösende Fotografie weniger geeignet. Ein beim Durchgang durch den Fokuspunkt trotz Kollimation nicht ganz rundes Sternbild ist ebenfalls ein Hinweis auf nicht sphärische Fehler. In den Doppelstern-Abbildungen oben rechts gibt es eine leichte Tendenz der Lichtausbrüche nach unten, die aber durch bessere Kollimation behoben werden konnte.

 

3. Ungleichmäßige Schärfe: Ist das fokussierte Bild an einem Rand schärfer als am Gegenrand, so versucht man zunächst den unscharfen Gegenrand zu fokussieren. Gelingt das, ist die Bildebene gekippt und die Optik in Ordnung. Die Ursache könnte zum Beispiel ein schlechter Okularauszug sein. Lässt sich der unscharfe Rand überhaupt nicht fokussieren, so hat der Sekundärspiegel schlechte Bereiche, die nur bei geneigtem Lichteinfall (Bildrand) verwendet werden. Die Optik ist dann gegebenenfalls bei normaler Beobachtung in Bildmitte perfekt, aber für großflächige hochauflösende Fotografie unbrauchbar. Sind alle Bildränder gleichmäßig unscharf, so liegt das an der Bildfeldwölbung der Optik, und man muss sich auf kleinere Formate der Bilder beschränken. Man prüft zuvor, ob die Kamera in der richtigen Entfernung zum Tubusende montiert ist (Händler fragen), denn nur dort ist das Bildfeld einigermaßen eben. Es gibt spezielle Linsen zur Bildfeldebnung, bei unserem Celestron C11 EHD ist eine solche Linse bereits integriert.

 


Seitenanfang

 


 
Teil 1: Maximale Auflösung bei Mond/Planetenbildern

 

Punktabbildung: Leider kann eine Optik einen hellen Punkt (z.B. einen Stern) nicht punktförmig abbilden. Die Beugung des Lichts an der runden Öffnung des Teleskops mit Durchmesser D führt zu einem hellen Scheibchen (Airy-Disk) umgeben von mehreren im Idealfall nur schwach sichtbaren hellen Ringen. Entscheidend für die maximale Auflösung im Bild der Optik ist der Durchmesser des Airy-Disks, je kleiner er ist, desto besser ist die Auflösung der Optik. Für den Durchmesser d des Airy-Disks gilt in Abhängigkeit von der Wellenlänge λ des Lichts und dem Öffnungsverhältnis f („Blende“) die Formel d = 2,5 λf. Für eine Optik mit 30cm Durchmesser bei 3m Brennweite (f10) ergibt sich z.B. für 550nm Wellenlänge ein Durchmesser von ca. 14 Mikrometern (Für Profis: Das entspricht etwa der doppelten Halbwertsbreite der PSF).

 

Auflösung bei Punktabbildung: „Auflösung“ ist im Zusammenhang mit optischen Teleskopen des Durchmessers D ein gut definierter Fachbegriff und ist in Form des Rayligh bzw. Dawes-Kriteriums geregelt. Dabei geht es um folgende Frage: Bei welchem Winkelabstand b (gemessen im Bogenmaß, nicht  in Winkelsekunden) ist das Bild zweier gleich heller Punkte gerade noch vom Bild eines einzelnen hellen Punktes unterscheidbar? Das Dawes-Kriterium (für kleine Winkel gilt b = λ/D) geht davon aus, dass zwei Airy-Scheibchen sogar im Mitten-Abstand von weniger als ihrem halben Durchmessers gerade noch als Überlagerung zweier Scheibchen erkannt werden können. Das Rayligh-Kriterium (für kleine Winkel gilt b = 1,22 λ/D) setzt die Mitte eines Scheibchens in den ersten dunklen Ring um das zweite Scheibchen, ist so um einen Faktor 1,22 weniger optimistisch, und fordert einen um diesen Faktor größeren Abstand. Nach Dawes liefert eine Optik mit 10cm Öffnung nach Umrechnung von b in Winkelsekunden a bei 550nm Wellenlänge etwa a = 1,2" Auflösung. Die Auflösung steigt proportional zum Durchmesser der Optik, eine 30cm-Optik löst demnach dreimal besser auf, und erreicht 0,4" (exakt 0,38"). Das bedeutet, dass bei einem Winkelabstand von 0,38" zwei gleich helle Punkte (z.B. Doppelsterne) gerade noch als zwei Punkte erkannt werden können, obwohl sich ihre Bilder schon mehr als halb überlappen.

 

Auflösung bei Flächen: In Anlehnung an obige Definition nun die Frage: Ab welchem Durchmesser ist eine Struktur mit hohem Kontrastumfang auf dem Mond gerade noch erkennbar? Hierzu gibt es keine eindeutige Definition,  da aber wegen der ungestörten Überlagerung von Wellen sich auch ein flächenhaftes Bild aus einzelnen Bildpunkten zusammensetzt für die das Dawes-Kriterium gilt, ist zu vermuten, dass dieses Kriterium in etwa auch die Auflösung im flächenhaften Bild (Mond, Planeten) beschreibt. Ich möchte aber an dieser Stelle keine komplizierten theoretischen Ansätze zur Herleitung einer Formel für die Auflösung in flächenhaften Bildern machen, die dann in Folge zu endlosen Diskussionen führen. Daher beschränke ich mich darauf aus den weltweit besten Amateurfotos und aus scharfen Passagen eigener Bilder durch Vergleich mit Mondbildern der NASA die feinsten noch sichtbaren Details zu bestimmen und die so gewonnenen Grenzen in ein Formel zu fassen. Eine solche reine Beschreibung der Praxis bedarf keiner prinzipiellen Rechtfertigung, Fehler durch die Unsicherheit bei der Bestimmung der Kraterdurchmesser liegen im einstelligen Prozentbereich.

 

Ein Beispiel zum Verfahren: Unter Anderem haben wir kleine scharfe Bereiche in unserem Clavius Bild gesucht. Diese Bereiche haben wir mit einer hoch auflösenden Clementine-Aufnahme (Map-A-Planet/USGS) verglichen. Als Maßstab haben wir den inneren Durchmesser des Kraters Clavius D mit 27 km angesetzt. Wegen der nicht klar definierten Grenzen der äußeren Kraterwälle wurden alle Durchmesser auf die höchsten Ränder der Wälle bezogen.

 

Um die folgenden Zahlen zu verstehen ist unbedingt zu beachten, dass Kraterdurchmesser natürlich aus den NASA-Bildern bestimmt werden müssen und nicht(!) aus den Teleskop-Bildern, weil unter einer gewissen Grenze der Durchmesser im Teleskop-Bild nicht mehr durch den echten Kraterdurchmesser bestimmt wird, sondern einen nahezu konstanten Wert annimmt, der durch die PSF (Point Spread Function) der Optik bestimmt wird (Genaueres siehe weiter unten). Aus den Beispielen ergab sich unter Beachtung der Mondentfernung zum Zeitpunkt der Aufnahmen folgendes Resultat (Kilometerangaben gelten für eine mittlere Mondentfernung):

 

 

Fazit: Unter besten Bedingungen mit absolut perfekten Optiken haben die besten Mondfotografen weltweit gelegentlich noch geringfügig bessere Werte erzielt. Als Beispiel könnte eine Plato-Aufnahme mit einem C14 (35cm Öffnung) von Peach gelten, die auf maximale Auflösung getrimmt wurde, und ungefähr 50 Kleinkrater in der Plato-Ebene bis hinab zu 500m Durchmesser zeigt. Damit ist die Frage nach der Auflösung für gute Amateur-Teleskope beantwortet: Ein relativ verlässlicher mittlerer Wert der Winkelauflösung für die sichere Detektierbarkeit feiner Strukturen ist durch die Formel des zweiten oben besprochenen Falls mit der Formel  a = 0,13/D gegeben, dieser Wert entspricht dem Mittel aus Rayligh und Dawes-Kriterium. Unter besten Bedingungen sind noch wesentlich feinere Strukturen „detektierbar“ aber nicht mehr geometrisch „abbildbar“. Das gilt insbesondere auch für lang gezogene Strukturen (Mondrillen, Encke-Teilung bei Saturn), die ebenfalls noch unterhalb der oben aufgezeigten Grenzen auf Bildern erkennbar sein können. Besitzer ganz perfekter Optiken können im günstigsten Fall mit nochmal geringfügig besseren Werten rechnen, bei Objekten (und Optiken) mit geringem Kontrast reduzieren sich hingegen die Werte.

 

Generell werden große Optiken mehr Mühe haben obige Grenzen zu erreichen, weil es deutlich schwerer ist eine große Optik mit der erforderlichen Qualität zu fertigen. Auch der Kontrast den eine Optik liefert ist von Bedeutung. Ist er hoch (teurer APO-Refraktor), so wird eine grenzwertige Auflösung natürlich eher erreicht, als bei einem preiswerten SC mit Fensterglas-Schmidtplatte. Jeder Nutzer muss also seine Optik nach diesen Kriterien selbst einordnen und dann entscheiden, welche der oben genannten Grenzen er damit erreichen wird......

 

 

Eine 20cm Optik wird Krater zeigen, die nur 0,2 Winkelsekunden größer sind als bei einer 30cm Optik. Aber Vorsicht! Zwischen diesen Werten liegen beim Mond ganze Welten! Eine Verdopplung der Auflösung führt nicht zu einer Verdopplung, sondern zu einer erheblich größeren Zunahme der sichtbaren Strukturen, weil auf dem Mond in vielen Regionen die Zahl der Objekte mit abnehmender Größe rasant ansteigt! Man kann das leicht an einem Apollo-Bild von Ptolemaeus oder einer anderen kraterreichen Region nachprüfen. Der Mond bekommt dadurch ein völlig neues Bild, und es lohnt sich, von 20cm auf 30cm Optikdurchmesser umzusteigen. 35 – 40 cm Optiken sind dann schon wieder eine ganze Klasse besser, und die 30cm Optik wird chancenlos, für hoch auflösende Bilder reicht dann aber das Seeing nur an wenigen Tagen im Jahr….

 

Was sieht man wirklich ? Nun noch ein ganz wichtiger Hinweis! Bei obigen Überlegungen geht es darum, wann ein Struktur auf dem Mond oder einem Planeten gerade noch im visuellen oder fotografischen Bild „detektierbar“ ist. Im Grenzbereich ergibt sich dabei aber keinesfalls ein geometrisches Abbild dieser kleinsten Strukturen, sie sind also nicht wirklich "aufgelöst", sondern nur "detektiert". Im absoluten Grenzfall beträgt z.B. bei unserer 30cm Optik die Winkelgröße gerade noch detektierbarer Strukturen etwa 0,32" bis 0,42", die an der Abbildung beteiligten Airy-Scheibchen  haben aber schon einen Durchmesser von bis zu 0,9“. Das ist zwei bis dreimal so groß wie die eigentliche Bild-Struktur, deren Form daher weitgehend durch die Form des Airy-Disks (bzw. die PSF) bestimmt wird. Bei Annäherung an die Grenze der Detektierbarkeit geht also die „geometrische“ Abbildung in wachsendem Maße in ein „Artefakt“ mit einem Durchmesser über, dessen Aussehen weitgehend durch die PSF bestimmt ist. In der Praxis haben die kleinsten noch schwach angedeuteten Krater in einem hoch auflösenden Mondbild alle nahezu dieselbe Größe, und lassen keinen eindeutigen Rückschluss auf die tatsächliche Größe des Kraters auf dem Mond zu. Das erklärt auch die oft falschen Angaben über die "Auflösung" von Bildern: Misst man am PC-Bildschirm die Ausdehnung eins kleinen, extrem kontrastarmen Kraters von 5 Pixel und bestimmt daraus den Durchmesser, so könnte der tatsächliche Durchmesser auf dem Mond erheblich kleiner sein! Das gilt im Übrigen auch für andere Strukturen, die Encke-Teilung im Saturnring wird von kleinen Optiken aus eben diesem Grund viel breiter abgebildet (besser: "detektiert") als erwartet.

 

 

Wie das in der Praxis aussieht zeigt der Vergleich zweier Bilder des Kraters Plato, die mit Teleskopen stark unterschiedlicher großer Öffnung und auch Blendenzahl gefertigt wurden. Das rechte  Bild mit großer Öffnung und Blendenzahl 21 zeigt deutlich verschieden große Krater in der Platoebene, die Doppelkrater oben sind einwandfrei getrennt, Konturen wirken scharf. Das linke, für die kleine verwendete Öffnung hervorragende Foto, wurde mit Bendenzahl 46 aufgenommen, und zeigt exakt die Merkmale die beim vollen Ausreizen der theoretischen Grenze in einem Bild zu erwarten sind: Die kleinen Krater in Plato erscheinen durch die PSF aufgebläht und fast gleich groß, die Doppelkrater oben sind daher nicht mit Zwischenraum getrennt. Es gibt zudem abgerundete, durch die PSF mitbestimmte Kanten auch an allen anderen kleinen Strukturen (bitte nicht mit dem Bildrauschen verwechseln).

 

Das Bild der kleinen Öffnung zeigt übrigens ein kräftiges Rauschen (körniges Aussehen), das eine deutlich kleinere Struktur hat als die kleinsten echten Bildstrukturen. Mit einem Rauschfilter könnte man also dieses Rauschen recht wirkungsvoll aus dem Bild entfernen, eine Folge der großen Blendenzahl (f = 46) mit dem das Bild aufgenommen wurde. Im unteren Bild (aufgenommen mit f = 21) hätte Rauschen ähnliche Größe wie im Bild links, könnte aber nicht mehr entfernt werden, weil die kleinsten echten Details von ähnlicher Größe wie das Rauschen wären, eine Tatsache, über die später noch geredet wird.

 

Seitenanfang

 

 

Teil 2: Wahl der CCD-Kamera bei Mond/Planetenbildern

 

Monochrom oder Farbe? Eine Farbkamera üblicher Konstruktion hat gegenüber einer monochromen Kamera einen Nachteil. Über den Pixel des CCD liegt eine Maske aus kleinen Farbfiltern in sich wiederholenden Gruppen von je 2x2 = 4 Filtern. Von diesen Filtern sind zwei diagonal gegenüberliegende grün, und je einer rot beziehungsweise blau (Bayer-Maske). Aus den Intensitätswerten der so belichteten Pixel (Raw-Bild) muss der Computer (oder die in die Kamera eingebaute Elektronik) die einzelnen Pixel des Farbbildes nach komplizierten Algorithmen berechnen. Dabei wird sowohl die Helligkeit als auch die Farbe durch Interpolationen gewonnen. Das ist natürlich nicht ganz unproblematisch, und gelingt je nach verwendetem Algorithmus (nicht alle Kameras sind da gleich) mal besser und mal weniger gut. Auf jeden Fall ergibt sich natürlich ein Schärfeverlust gegenüber einer entsprechenden monochromen Kamera. Auch führt die Farbinterpolation gegebenenfalls zu Farbsäumen, die mit den angrenzenden Farben nicht identisch sind. Das Bild unten zeigt das Problem anhand der Fotografie einer Rasierklingen-Kante in gelbem Lampenlicht. Das sich auch bei der monochromen Abbildung keine scharfe Linie ergibt, ist durch die Beugung des Lichts an der Öffnung der Optik bestimmt. Im vorliegenden Fall liegt die wirkliche Kante der  Rasierklinge in der Mitte zwischen den roten Linien, die Theorie verlangt eine Verbreiterung auf ca. drei Pixelbreiten, was sich im Bild gut bestätigt. Wichtig ist hier nur die Verbreiterung der Kante bei der Farbkamera, woraus sich eine größere "effektive Pixelgröße" als bei der monochromen Kamera ergibt. Der hier vorliegende Faktor von etwa 1,3 hängt von der Lage der Kante zum Pixelraster der Kamera ab, und verringert die Bildschärfe entsprechend. (Bei Verwendung sehr schmalbandiger Farbfilter kann sich dieser Faktor auf maximal 2 erhöhen, wenn nur die Blauen oder nur die roten Pixel angesprochen werden). Beachten wir nun auch noch den erheblichen Verlust an Lichtstärke durch die Filter der Bayer-Maske, so sprechen folgende Punkte gegen die Verwendung einer Farbkamera:

Wir werden also für die Mondfotografie keine Farbkamera verwenden. Anders liegt der Fall bei der Planetenfotografie, weil dort auf Farbe nicht verzichtet werden kann. Trotz der oben aufgezeigten Nachteile können mit Farbkameras schöne Bilder produziert werden, wie wir an Beispielen weiter unten sehen werden. Wer allerdings auf beste Bildschärfe und beste Farbdarstellung angewiesen ist, der muss zu einer Kombination von monochromer Kamera wie z.B. der DMK21 für die Helligkeitswerte (Luminanz L) und Farbkamera wie der DBK21 für die Farbwerte (Chrominanz RGB) greifen, oder relativ aufwändig und für Einsteiger nicht ganz einfach mit einer s/w Kamera durch Farbfilter (z.B. rot, grün, blau) drei Bilder machen, und diese im Computer zu einem RGB-Farbbild verarbeiten. Einige Information dazu folgt weiter unten!

 

 

CCD oder CMOS? Diese Frage wird sich bald nicht mehr stellen. Auf dem Markt befinden sich in wachsendem Maße Kameras die statt den teuren klassischen CCD-Sensoren CMOS-Sensoren verwenden. Da diese Kameras billiger zu fertigen sind, werden sie vermutlich CCD-Kameras relativ bald vom Consumer-Markt verdrängen. Es gibt inzwischen eine große Zahl CMOS Kameras guter Qualität, die ab etwa 2018 das Niveau von CCD-Kameras erreicht haben. Besonders interessant sind dabei Kameras mit sehr kleinen 2,2 bis 2,4µ Pixel. Mit dieser Pixelgröße kann man zum Beispiel bei den verbreiteten f=10 (SC) Teleskopen bei hoch auflösenden Fotos von Mond/Planeten auf eine Brennweitenverlängerung mit einer zusätzlichen Barlow-Linse verzichten, was sehr von Vorteil ist. Wir haben eine TIS DMK 72AUC02 Kamera mit einem solchen Sensor beschafft, und damit das CMOS-Bild unten links, sowie das Bild einer TIS DMK41 CCD-Kamera durch Überlagerung von jeweils 100 Einzelbildern eines Videos erstellt. Später konnten wir noch das Bild der DMK33UX178.AS rechts ergänzen. Die Bilder zeigen einen kleinen Teil einer weit entfernten Straßenlaterne aufgenommen mit einem ETX-Teleskop durch eine doppelte Fensterverglasung hindurch. Sie sind daher nicht als Schärfetest gedacht, sondern zum Vergleich der Lichtempfindlichkeit. Zur Vergleichbarkeit wurde auf identisches Aussehen und Bildrauschen geachtet. Für gleichen Abbildungsmaßstab wurde die Brennweite des Teleskops bei der DMK72 mittels Reducer halbiert, bei der DMK33 nicht ganz halbiert, und das DMK41-Bild noch um den Faktor 1,17 nachvergrößert. Vergleicht man die Zeit 1/8s mit den Zeiten der CMOS Kameras, so erkennt man einen Faktor 3 (DMK72) und 4 (DMK33) zu Gunsten der CMOS-Kameras. Die Pixel der CMOS-Kameras sind zwar nur wenig empfindlicher als die Pixel der CCD-Kamera, das aber bei viel kleinerer Pixelfläche. Das ermöglicht bei gleicher Auflösung eine kürzere Brennweite mit entsprechend hellerem Bild auf dem CMOS-Chip, und dadurch einen kräftigen Gewinn gegenüber der bisherigen CCD Mond-Referenzkamera DMK41.

 

 

Bedenkt man dabei, dass die CMOS-Kameras mit 5 bzw. 6 MP auch noch einen riesigen Sensor haben, stellt sich also die Frage: Sofort auf CMOS umsteigen? Leider haben die geprüften CMOS-Sensoren einen "rollenden" Verschluss (Rolling Shutter) der nicht alle Pixel auf einmal belichtet, sondern zeilenweise zeitlich versetzt. Das führt bei bewegten Bildern zu Verzerrungen, die sich jedoch anders verhalten als man in ersten Moment erwarten würde. Wir haben daher den Rolling Shutter sehr genau untersucht. Aus dieser Untersuchung folgt unter anderem: Für großflächige Mondaufnahmen ist die DMK72 im Gegensatz zu Planetenaufnahmen wegen ihrer geringen Bildrate beschränkt brauchbar wenn das Teleskop das Bild fest am Ort hält, und keine starken großflächigen Bewegungen durch Luftunruhe auftreten. Die neuere DMK33 liefert hingegen sehr hohe Bildraten, bei denen der Rolling Shutter Effekt in den Hintergrund tritt, und erlaubt die Fotografie von Mond/Planeten. Einige neue CMOS Versionen haben zur Vermeidung des RS-Effekts sogar einen globalen Verschluss (Global Shutter). Die CCD-Kameras gehören dennoch keinesfalls zum alten Eisen. Beispiel hierfür sind die TIS 21er Kameras mit den 618er CCD´s von Sony. Die Kameras haben im gesamten Bereich eine hohe Lichtempfindlichkeit, besonders jedoch im Infrarot. Das ist für Aufnahmen bei unruhiger Luft ein großer Vorteil, weil man dann das IR-RGB-Verfahren (siehe auch weiter unten) nutzen kann, um noch ausreichend gute Bilder zu bekommen. Wir haben einen ausführlichen Test dieser Kameras im Vergleich zu den Vorgänger-Versionen in "Sterne und Weltraum" Heft 12/2011 veröffentlicht. Der Bericht stand zumindest zeitweise in mäßiger Qualität hier zur Verfügung. Dabei handelt es sich um ein PDF, also bitte eine Weile Geduld, bis es geladen ist. Ebenfalls in reduzierter Qualität steht auch noch ein älterer Bericht aus Heft 6/2008 als PDF zur Verfügung. Da die bewährten CCD-Kameras langsam vom Markt verschwinden, und die neuen CMOS Bildsensoren erheblich höhere Frameraten ermöglichen (die oben erwähnte DMK33UX178 zum Beispiel bis 280 Bilder pro Sekunde), haben wir Im Jahr 2018 einige der unzähligen neuen Kameras genau untersucht.

 

Schnittstelle zum PC: Natürlich werden wir möglichst zu einer Kamera greifen, die die Daten digital und ohne Komprimierung an den PC überträgt. Ob der Anschluss über USB, Firewire oder Netzwerk (GigE) erfolgt, ist prinzipiell egal. Analoge Kameras mit Grabbern (siehe Mars TOU-Cam Bild unten) und eigentlich auch Firewire sind nicht mehr Stand der Technik. Neuere Kameras verwenden USB 3.0 um die bei hoher Framerate und Pixelzahl erforderliche Datenrate zu erreichen, die Leitungslänge ist aber auch mit aktiven Kabeln begrenzt, was uns zu einer ausführlichen Untersuchung veranlasste. Die GigE Schnittstelle ermöglicht bei deutlich geringerer Datenrate sensationelle Leitungslängen bis 100m. Dabei läuft die Stromversorgung oft getrennt, und die Kameras haben wegen der kräftigen erforderlichen Leitungstreiber gelegentlich eine erhöhte Leistungsaufnahme (Erwärmung der Kamera).

 

Fazit Kamerawahl: Ein Nachfolger der bewährten Imaging Source DMK 41 Mondkamera ist eigentlich nicht erforderlich, die 41er ist mit ihren 4,65µ Pixel in Verbindung mit einer Barlow zur Nachvergrößerung am Teleskop immer noch ein guter Tipp. Bei noch größeren Sensoren besteht die Gefahr dass es mit der Schärfe am Bildrand schon Probleme geben kann, wenn das Bildfeld des Teleskops nicht absolut eben ist. Bei Neuanschaffung sind CMOS-Kameras wie zum Beispiel die Imaging Source DMK33UX178 (2,4µ Pixel Rolling Shutter) oder die DMK 33UX265 (3,45µ Pixel Gobal Shutter) inzwischen den CCD Kameras bei Mondfotografie weitgehend ebenbürtig und sogar bei sehr geringem Licht und in Bezug auf die Framrate überlegen. Auch wer bei bester Optik die theoretische Grenze der Auflösung anstrebt, muss nicht unbedingt zu einer Kamera mit Global Shutter greifen, der Rolling Shutter ist allerdings nur bei völlig ruhiger Luft und genügend hoher Framerate gleichwertig.

 

Für die Planetenfotografie reichen Kameras mit wenigen Pixel. Wenn eine genügend hohe Framerate erreicht wird ist es weitgehend egal ob CCD, CMOS, rolling oder global Shutter verwendet wird. Die Kamera wird normalerweise eine moderne USB3.0 CMOS Version mit etwa 1MP Sensor und einer hohen möglichen Bildrate (fps) sowie höchster Lichtempfindlichkeit sein. Bleibt also nur noch die schon oben diskutierte Frage ob monochrom oder farbig, oder eine  Kombination beider Kameras, was wiederum vom erstrebten Einsatz abhängt. Die komplizierteste Methode kommt mit einer s/w-Kamera aus. Man erzeugt drei Videos mit vorgeschalteten RGB Farbfiltern, und setzt die drei s/w Ergebnisbilder dann zu einem RGB Farbbild zusammen. Einfacher ist die Verwendung von einer s/w und einer Farbkamera für Luminanzbild und Farbinformation. Die Farbinformation verwandelt dann am Computer das s/w Luminanzbild in ein Farbbild. Dabei spielt die größere Unschärfe der Farbkamera keine Rolle, weil das Auge nur die Schärfe aus dem Luminanzbild sieht. Ein Beispiel für ein solches Bild gibt es hier, die Farbe stammt von einer DBK21AF618.AS, die Luminanz lieferte eine DMK21AF618.AS im unsichtbaren IR, was weniger durch Luftunruhe gestört ist als sichtbares Licht. Weitere Info hierzu findet sich weiter unten.

 

Inzwischen gibt es neben der leider aussterbenden CCD-DBK21AF618.AS eine unüberschaubare Menge guter CMOS Farbkameras (wie zum Beispiel die ASI 224 MC oder die TIS DFK33UX178), die mit hoher Bildrate und kurzer Belichtungszeit so gute Farbvideos liefern, dass die damit gewonnenen Farbbilder ohne weitere Klimmzüge kaum schlechter sind als sehr aufwändig erzeugte RGB Aufnahmen mit monochromen Kameras. Zu diesem einfachsten aller Verfahren würden wir Einsteigern raten.  Hier ein Beispiel  mit der oben erwähnten preiswerten TIS CMOS Kamera DFK72AUC02. Für Einsteiger und auch viele Fortgeschrittene wäre also die Ausstattung mit einer sehr guten "kleinen"  Farbkamera für Planeten, und einer s/w Mondkamera mit größerem Sensor die ideale Ausstattung. Weitere Hilfe zur Wahl einer Kamera gibt es in unserem Kameravergleich.

 

Zusätzliche Anmerkung: Alle Kameras müssen unbedingt absolut korrekt an die jeweilige Optik angepasst werden, sonst sind optimale Ergebnisse nicht möglich. Günstig ist die Wahl einer Kamera die ohne zusätzliche optische Elemente gut angepasst ist. Beispiel wäre die TIS DMK/DFK33UX178 (USB3), die DMK/DFK72 (USB2) oder DMK/DFK27 (USB3) an einem Teleskop mit Blendenzahl 10.  Vorsicht: Einige Kameras haben Pixelgrößen, die für bestimmte Teleskope nicht angepasst werden können, weil die passenden Barlows nicht in guter Qualität verfügbar sind. Die zur Verwendung kommende Optik bestimmt also neben dem gewünschten Einsatzzweck auch welche Kamera überhaupt, oder im Idealfall ohne zusätzlichen Aufwand, geeignet ist. Bitte daher unten den Abschnitt über Anpassung der Kamera an das Teleskop vor dem Kauf unbedingt sorgfältig lesen! Die dort berechneten Blendenzahlen sind für maximale Schärfe unbedingt einzuhalten. Alle noch größeren Blendenzahlen sind bei diesen Kameras „leere“ Vergrößerung, und führen zu längerer Belichtungszeit ohne Gewinn an Bildschärfe. Das bei leerer Vergrößerung die Bildkonturen gegenüber dem Rauschen vergröbert werden, ermöglicht (wie wir schon oben in den zwei Plato-Abbildungen gesehen haben) bei der späteren Bildverarbeitung eine bessere Trennung von Rauschen und Bildsignal, eine Zugabe von ca. 3  Stufen zur berechneten Blendenzahl kann also nicht schaden. Das gilt allerdings nur, wenn genügend Licht zur Verfügung steht, weil sonst die geringere Lichtstärke zusätzliches Rauschen generiert. Kleinere Blendenzahlen führen bei schlechtem Seeing und/oder schlechter Optik zu schärferen Bildern, die jedoch niemals die theoretisch mögliche Auflösung erreichen.


Konverter und Barlow: Optimal wäre der Fall, dass eine Kamera ohne teure und qualitätsmindernde optische Elemente an das Teleskop angepasst ist. Anderenfalls gehört zum System der Kamera bei hoch auflösender Fotografie immer eine Brennweitenverlängerung der Optik. Da normale Okulare für parallelen Strahlenaustritt berechnet sind, ist Okularprojektion damit nicht optimal, ideal ist ein extrem teurer Flatfield-Konverter, wie er z.B. von der Firma Baader in perfekter Form angeboten wird. Normalerweise reicht jedoch eine sehr gute Barlow völlig aus. Definitiv hervorragend sollten drei oder vierlinsige apochromatische 2-fach Barlows sein, mit denen sich je nach Abstand zum CCD-Chip Verlängerungen von 2 bis 3-fach erzeugen lassen. Einfache achromatische Barlows mit nur zwei Linsen werden nicht immer ein optimales Ergebnis liefern. Es gibt viele untadelige Barlows auf dem Markt, wie z.B. die Televue Powermate, aber auch preiswerte Teile wie die apochromatische 2-fach Barlow von TS Optics für etwa 80 Euro können bestens funktionieren. Eine schlechte Barlow bedeutet allerdings das Ende aller Träume, man sollte nicht an der falschen Stelle sparen.

 

 

TS Optics 2x Barlow: Diese dreilinsige Barlow übertritt erfreulicher Weise bei Einsatz mit einer Kamera den angegebenen Faktor 2 nur geringfügig. Für ein Filter an der Kamera bleibt genügend Platz, auch die Barlow selbst hat ein Filtergewinde. Sie eignet sich unproblematisch für die Anpassung von Kameras, die die doppelte Teleskopbrennweite benötigen.

Baader Hyperion 2,25x Barlow: Diese Barlow hat oben ein Filtergewinde, und lässt sich direkt auf einen 5/4" Adapter aufschrauben. Beim TIS/Baader Adapter ergibt sich ein Faktor 2,5/2,3. Kürzt man einen Adapter auf der Drehbank möglichst stark ist der Faktor 2,1. Ein Filter kann gegebenenfalls vorne auf das Barlowelement aufgeschraubt werden. Ein Adapter auf T2 Gewinde ist im Lieferumfang enthalten.

Baader Q-Turret 2,25x Barlow: Das Linsenelement kann abgetrennt und in den 5/4" Adapter der Kamera eingeschraubt werden. Bei einem kurzen Adapter (siehe Kamera ganz rechts in der Abbildung) erreicht man einen Faktor 1,7. Die Barlow ist nur zweilinsig, und nicht für alle Aufgaben ideal geeignet. Filter ohne Fassung können gegebenenfalls unter dem Barlow Element eingesetzt werden.

Beim Einschieben einer Kamera in eine Barlow mit Klemmhülse liegt die Bildebene der Kamera weiter entfernt vom Linsenelement als  bei der Verwendung mit einem Okular. Daher erhält man mit Kamera oft erheblich größere Faktoren, als für die Barlow angegeben werden. Durch Verlängerung des 5/4" Adapters mittels einem oder mehreren C/CS-Mount Adapterringen kann der Vergrößerungsfaktor erhöht werden. Die Ringe werden zwischen den 5/4" Adapter und die Kamera geschraubt. Die optische Qualität der beiden dreilinsigen Barlows sollte sehr gut sein, wir haben das aber nicht ausprobiert. Dennoch ist die Nutzung einer Barlow nicht immer ganz unproblematisch, wir empfehlen daher möglichst eine Kamera zu erwerben, die ohne eine solche Zusatzlinse optimal an das verwendete Teleskop angepasst ist. So zum Beispiel eine 2,2 oder 2,4µ Pixelgröße für die gängigen f = 10 SC-Teleskope. Damit vermeidet man optische Einbußen, und erspart sich nicht nur die Suche nach einer passenden und hochwertigen Barlow, sondern auch noch eine Menge Geld. Merkregel: Die beste Barlow ist die, die man nicht braucht.

 

ADC Korrektor: Je näher man dem Horizont kommt, desto stärker wirkt die Atmosphäre wie ein Prisma, und spaltet das Licht des Objekts durch atmosphärische Refraktion/Dispersion in Farben auf. Erkennbar ist das an blauen/roten Farbrändern oben/unten am Planetenscheibchen. Korrigieren kann man das zumindest teilweise durch zerlegen des Bildes in die Farbkanäle RGB, und verschieben von Kanal B/R nach unten/oben. Alternativ kann man einen ADC (Atmospheric Dispersion Correktor) aus zwei gegeneinander verdrehbaren dünnen Prismen vor die Kamera setzen, um damit die Aufspaltung sehr wirksam rückgängig zu machen. Die Prismen müssen je nach Horizontnähe korrekt eingestellt und während der Sitzung nachjustiert werden. Sie haben einen zumindest geringfügigen negativen Einfluss auf die Abbildung des Teleskops. Gute Funktion ist auch nur bei Blendenzahlen von f = 20 oder mehr gegeben, was eine Montage zwischen Kamera und Barlow erforderlich macht. Da in den vergangenen Jahren der Einsatz eines ADC nicht unbedingt erforderlich war, haben wir keine Erfahrungen damit. Ab 2017 liegen die Planeten jedoch so dicht am Horizont, dass der Einsatz eines ADC immer wichtiger und fast zwingend wird. Die Kosten für nicht professionelle ADC liegen bei 150 bis 400 Euro, Einsteiger können es jedoch zunächst mit Justierung der Farbkanäle am PC ohne ein solches Teil versuchen.

 

Filter: Zum System der Kamera gehört bei hoch auflösender Fotografie fast immer ein Filter. Der Einsatz von Filtern ist eine nicht ganz einfache Angelegenheit, zunächst gehen wir mal davon aus, dass zum Schutz des CCD/CMOS-Chips ein Klarglas oder ein IR-Sperrfilter (oft auch in der Form eines IR/UV-Sperrfilters) vor die Kamera geschraubt wird. Das hier nur Filter bester Qualität angesagt sind, ist selbstverständlich. Fast alle unsere Mondbilder sind mit einem solchen Filter vor der Kamera entstanden. Unter bestimmten Bedingungen sind jedoch auch andere Filter sinnvoll oder sogar zwingend erforderlich. Dazu gibt es am Ende des Tutorials noch umfangreiche Auskünfte. Wer allerdings mit einem schlecht farbkorrigierten Refraktor oder bei hoher Luftunruhe arbeiten muss, oder wer bei Tageslicht Mondvideos machen will, kann ja auch schon jetzt mal den entsprechenden Abschnitt lesen.

 

Schutz und Reinigung: Zum Schutz des CCD/CMOS Sensors vor Dreck und Staub gehört eigentlich unbedingt ein Filterglas vor die Öffnung. Ein Staubkorn auf dem Sensor ist tödlich für das Bild, ein Staubkorn auf dem Filter einige Zentimeter davor ist hingegen völlig unproblematisch. Oft wird man ohnehin ein IR-Sperrfilter verwenden, das dann die Schutzfunktion übernimmt, im Zweifelsfall kauft man ein Filter aus Klarglas. Sollte nun doch einmal Staub auf den Chip gelangen, so entfernt man den mit einem absolut sauberen Wattestäbchen in staubfreier Umgebung durch eine von der Mitte ausgehende kreisende Bewegung. Vorsicht: nicht zu fest mit dem Stäbchen auf das extrem dünne und zerbrechliche Fenster vor dem Sensor drücken! Eine Erfolgskontrolle ist möglich, indem man mit der Stecknadel ein feines Loch in die sonst lichtundurchlässige Schutzkappe des Kamerastutzens sticht, und die Kamera mit Abstand vor eine helle Lichtquelle hält (Lochkamera). Ist der Dreck zu fest, genügt oft das Anhauchen des Chips und sofortiges Abreiben des Feuchtigkeitsbeschlags mit dem Wattestäbchen, ganz leichtes Blasen ist auch erlaubt. Druckluft aus Dosen ist hierzu nicht immer geeignet. Dreck auf dem Videobild kann später die Funktion der Stackprogramme behindern, und muss schon deshalb unbedingt ferngehalten werden.

 

Seitenanfang

 

 

Teil 3: Anpassung der CCD-Kamera bei Mond/Planetenbildern

 

Problem: Für jeden Fotografen stellt sich eine wichtige Frage: „Welche Blendenzahl muss ich wählen, um bei einer bestimmten CCD-Kamera die Auflösung der Optik voll zu nutzen“? Auch an dieser Stelle verzichte ich gezielt auf theoretische Ansätze zur Herleitung einer Formel für die Kameraanpassung, weil es problematisch ist, dabei alle Einflüsse auf das Bild zu erfassen. Lediglich am Ende des Abschnitts gebe ich kurz einen Hinweis zu einem solchen Vorgehen und seinem Ergebnis. Wie also geht es ohne Theorie? In solchen Fällen fertigt der Physiker ein "Modell", leitet daraus Formeln her, und wenn diese Formeln in der Praxis den Vorgang gut beschreiben, war das Modell gut. Ich habe mir sogar zwei verschiedene Modelle ausgedacht, dass Beide das identische Ergebnis liefern ist erfreulich:

 

1. Modell mit Dawes-Kriterium: Zwischen zwei auf Grund der Auflösung gerade noch trennbaren hellen Punkten muss logischer Weise auf dem Kamera-Chip noch ein weiterer Punkt liegen, sonst können sie im Bild nicht getrennt werden. Es muss also so sein, dass die beiden hellen Punkte auf zwei Pixel fallen, zwischen denen noch ein drittes Pixel liegt, das Bild muss also auf drei Pixel verteilt werden. Von Mitte zu Mitte der beiden äußeren Pixel ist das eine Strecke von 2x (dabei sei x die Breite eines Pixels). Die Brennweite F der Optik muss also so angepasst werden, dass der durch das Auflösungsvermögen vorgegebene kleinste Punktabstand genau auf diese Strecke 2x abgebildet wird. Bei unserer Optik berechnet sich F aus den für 30cm Öffnung und 550nm Lichtwellenlänge vorgegebenen 0,38" des Dawes-Kriteriums, wie wir bereits in unserer Abhandlung über die Auflösung gezeigt haben.

 

Das führt für unsere Optik und Kamera mit der für kleine Winkel gültigen Formel  tan a = 2x/F   (a Auflösung in Grad, also 0,38/3600 sowie x = 0,0000046 Pixelraster des CCD in Metern) zu einer Brennweite F in Metern von F = 2x/(tan a) = 5,0m. Das entspricht bei 30cm Öffnung einer Blendenzahl von f = 17. Verallgemeinert man diese Rechnung durch allgemeines Einsetzen von a aus dem Dawes Kriterium, so ergibt etwas Rechnung eine einfache „Merkregel“ für die Blendenzahl f = 3,6x, die dann für beliebige Optiken und s/w-Kameras bei 550nm Wellenlänge gültig ist (x in die Merkregel in Mikrometern einsetzen).

 

2. Modell mit Airy-Disk: Wir können überlegen wie ein Airy-Disk auf einem CCD-Chip abgebildet wird, wenn man dem Bild eine gewisse Zahl von Pixel zuordnet. Die Abbildung unten zeigt das schematisch für Quadrate aus 2 x 2,  3 x 3 und 5 x 5 Pixel. Bei zentraler Abbildung auf 2 x 2 Pixel werden alle Pixel gleichmäßig grau, eine feine Auflösung ist so nicht möglich. Die bei einer Abbildung auf 3 x 3 Pixel entstehenden „Kreuze“ können bei lang gezogenen Strukturen und Kanten zu stufigen und unsauberen Darstellungen führen. Erst beim Raster mit 5 x 5 Pixel zeigt sich eine einigermaßen ordentliche kreisähnliche Wiedergabe. Den mathematische Ansatz für die drei Fälle liefert die Gleichsetzung des Durchmessers des Airy-Disks 2,5λf (Für Profis: Das entspricht etwa der doppelten Halbwertsbreite der PSF) mit der Kantenlänge nx des Quadrats aus n Pixel: 2,5λf = nx. Daraus folgt f = nx/2,5λ, das führt für n = 5 zu f = 2x/λ, und bei einer Wellenlänge von 550nm sowie der  Eingabe von x in Mikrometern erneut zu der schon oben aus einem anderen Denkansatz hergeleiteten Formel f = 3,6x.

 

 

Abbildung des  Airy-Disk (links) auf einem Bildsensor für verschiedene Samplingraten. Erst ab einer Abbildung auf mindestens 5 x 5 Pixel wird ein Airy-Disk einigermaßen korrekt kreisförmig wiedergegeben, siehe auch die ohne Interpolation (!) verkleinerten Bilder rechts.

Wegen der ungestörten Superposition von Wellen sind auch flächenhafte Bilder (Mond, Planeten) aus einzelnen Abbildungen von Airy-Disks zusammengesetzt. Für optimale Schärfe muss diese kleinste Einheit des Bildaufbaus korrekt dargestellt werden. Daher ist für höchste Auflösung mindesten das 5 x 5 Raster erforderlich. Das führt wie oben gezeigt zur Formel f = 3,6x für den Mindestwert der Blendenzahl f für eine Kamera mit Pixelgröße x.

Hier die berechnete zwingend erforderliche Mindestblendenzahl für einige bekannte Kameras, bei Farbkameras mit Bayer-Maske ist für x die effektive Pixelgröße (1,3 mal tatsächlichen Größe*) zu setzen:

DMK31/41AF02    CCD      x = 4,65µ     Blendenzahl f = 17

DMK21AF618      CCD      x = 5,60µ     Blendenzahl f = 20

DBK21AF618      CCD      x = 7,30µ     Blendenzahl f = 26*

DMK72AUC02      CMOS     x = 2,20µ     Blendenzahl f = 8

DFK72AUC02      CMOS     x = 2,20µ     Blendenzahl f = 10*

DFK27AUP006     CMOS     x = 2,20µ     Blendenzahl f = 10*

DMK33UX178      CMOS     x = 2,40µ     Blendenzahl f = 9

DMK33UX265      CMOS     x = 3,45µ     Blendenzahl f = 13

DMK27AUJ003     CMOS     x = 1,67µ     Blendenzahl f = 6

Bis zu 30% größere f-Werte sind nur bei Spitzenoptiken und besten Bedingungen gut, kosten aber Licht!

 

 

Wie wir schon an anderer Stelle gesehen haben, setzt sich auch ein flächenhaftes Bild wegen des Superpositionsprinzips für Wellen aus der Überlagerung einzelner Bildpunkte (Airy-Disks) zusammen. Für beste Anpassung der Kamera ist es unabdingbar, dass diese kleinsten Strukturen eines Bildes auch korrekt abgebildet werden. Das führt zwingend zu Abbildung des Airy-Disks auf mindestens 5 x 5 Pixel und damit zu der für beliebige Kameras und Teleskope gültigen Formel f = 3,6x. Dabei ist für Farbkameras mit Bayer-Maske für x der effektive Pixeldurchmesser zu setzen, der nach unseren Untersuchungen der Kantenschärfe in SUW 6/2008 ca. 1,3mal größer ist, als der geometrische Wert von x.

 

Fazit: Zum Erreichen der theoretischen Auflösung ist neben einer guten, hervorragend kollimierten Optik auch gutes Seeing erforderlich. Früher waren wir der Meinung, das Seeing müsse perfekt sein. Neuere Beobachtungen zeigen erstaunlicher Weise aber, dass selbst bei keinesfalls perfekten Bedingungen sogar mit einer 30cm Optik beste Auflösung erreicht werden kann. Diese neue Erkenntnis führt zu folgender Empfehlung:

 

 

Mit kleineren f-Werten arbeiten? Die Anpassung einer Kamera lässt sich auch theoretisch über einen Ansatz mit der PSF herleiten. Vernachlässigt man dabei andere Einflüsse auf die Bilderzeugung (Rauschen, Smear, usw.), so erhält man die Formel f = 3x für eine etwas kleinere Blendenzahl. Aus der Praxis heraus halten wir aber die mit unserem Modell berechneten f-Werte (f = 3,6x) immer dann für sinnvoll, wenn die Optik eine sehr gute Qualität hat, und die atmosphärischen Bedingungen stimmen. Durch die bei Flächen erforderliche korrekte Belichtungszeit wird der weniger helle Randbereich des Airy-Disks kaum sichtbar, was den Durchmesser verkleinert, die Überlegung in Richtung „noch bessere Auflösung“ verschiebt, und eine noch höhere Blendenzahl fordern würde. Auch um Fehler der Elektronik bei der Bildbearbeitung zu kompensieren ist ein gewisses "Oversampling" gelegentlich um so günstiger, je schlechter die Elektronik ist. Viele bekannte Mond/Planetenfotografen arbeiten daher mit noch größeren Werten, professionelle Gerät wie das Hubble-Teleskop müssen sich mit solchen Problemen nicht herumschlagen, und kommen daher auch mit kleinerer Blendenzahl aus.

Besitzer durchschnittlicher Optikqualität sollten vor allem auch bei schlechteren Bedingungen den f-Wert bis auf f = 2,2x verringern. Vorteile eines kleineren f-Werts sind das große Bildfeld und die kurze Belichtungszeit. Die Belichtungszeit spielt aber bei guten Bedingungen keine so entscheidende Rolle wie oft vermutet. Die Bildverarbeitung erfordert bei kleinem f-Wert eine Nachvergrößerung mittels Interpolation, und ist erheblich kritischer in Bezug auf unsaubere Kantendarstellung und Rauschen (Teile des Rauschens sind nicht durch kurze Belichtung vermeidbar, und lassen sich bei den bei kleinem f-Wert auftretenden  extrem feinen Details nicht mehr vom Nutzsignal trennen, siehe auch die beiden Plato-Bilder weiter oben). Wer mit diesen Einschränkungen leben will, kann auch mit kleineren f-Werten auf einfache Weise ganz erstaunliche Resultate erreichen, das zeigt auch ein Vergleich zweier Bilder, die zufällig mit der gleichen Optik und der gleichen Kamera zur selben Zeit an verschiedenen Orten aufgenommen wurden. Allerdings zeigt das mit f = 10 aufgenommene und nachvergrößerte Bild schon sehr deutlich die Grenzen dieses Verfahrens.

Besonders bei der Planetenfotografie ist ein gewisses Oversampling zur Erzeugung sauberer Bilder sehr nützlich, daher arbeitet praktisch keiner der bekannten Planetenfotografen an kleineren Optiken mit kleinen f-Werten, sondern mit Werten die sogar noch oberhalb der von uns empfohlenen Werten liegen. Ein gutes Beispiel ist die für die Größe der Optik von nur 20cm Öffnung absolut erstklassige Jupiter-Aufnahme von Torsten Hansen. Seine Kamera ist nach unserer Rechnung bereits bei f = 20 ordentlich angepasst, das Bild entstand aber bei f = 33, und zeigt deutlich die Überlegenheit größerer Blendenzahlen bei guten Bedingungen. Mit einer Blendenzahl von 10 wäre der Mond Ganymed flächenmäßig 10mal kleiner gewesen, und hätte keine definierten Strukturen mehr zeigen können. Auch hätte man feine Rauschanteile bei f = 10 nicht mehr aus dem Bild  entfernen können.

Wie präzise unsere Rechnungen zur Anpassung sind zeigt auch ein Bild, das zum Testen eines Schärfungsfilters bearbeitet wurde. Dieses Bild zeigt viele kleine Krater, die sich im Maßstab 1:1 nur über eine Länge von vier Pixel erstrecken. Würde man das Bild statt mit der Blendenzahl 20 mit 10 aufnehmen, so wären diese Krater auf eine Länge von 2 Pixel abzubilden, was natürlich unmöglich ist. Noch deutlicher wird das bei der Zahl der beteiligten Pixel, bei f20 sind das bis 4x4 = 16, bei f10 nur maximal 2x2 = 4. Ein Kraterbild mit 4 Pixel ist im Gegensatz zu einem Bild mit 16 Pixel nicht mehr denkbar, und würde allenfalls im Zuge der bei f = 10 unvermeidlichen Bildvergrößerung zu einer durch Interpolation erzeugten künstlichen kraterähnlichen Struktur. Wer also mit einer sehr guten Optik bei sehr guten Bedingungen optimale Bilder (speziell von Planeten) aufnehmen will, sei also ausdrücklich vor den gelegentlich propagierten zu kleinen Blendenzahlen gewarnt!


Seitenanfang

 

 
Teil 4: Vorbereitung und Durchführung einer Aufnahme.


Kollimation: Für die hoch auflösende Fotografie ist eine absolut präzise und korrekte Kollimation (Justage) der Optik unerlässlich. Da nun bei fast allen Teleskopen der Massenfertigung die Mechanik nicht optimal ausgeführt ist, gibt es Probleme. Bei einem SC, bei dem das Blendrohr (auf dem der Spiegel zur Fokussierung verschoben wird) nicht ganz parallel zur optischen Achse steht, verschiebt sich der Spiegel beim Umfokussieren von der visuellen in die fotografische Position seitlich gegenüber der Achse, was unvermeidlich zur Dekollinmation führt. Um eine ständige neue Kollimation zu vermeiden, sollte man durch entsprechende Verlängerungshülsen daher die Kamera so befestigen, dass nur ein minimales Nachfokussieren aus der visuellen Position heraus nötig ist. Es kann nicht oft genug gesagt werden: Schon der minimalste Fehler bei der Kollimation macht alle Hoffnungen auf ein hoch auflösendes Bild zunichte!

Noch ein Punkt ist extrem wichtig: Wir kollimieren zunächst ganz "normal" durch Zentrierung  der intra/extrafokalen Bilder. Dann kommt aber eine ganz wichtige Übung die man auf jeden Fall absolut korrekt ausführen sollte, wenn die Optik auch nur die geringsten nichtsphärischen Bildfehler hat. Nichtsphärische Bildfehler führen bei Luftunruhe dazu, dass die Lichtausbrüche am kollimierten fokalen Bild nicht gleichmäßig in allen Richtungen verlaufen, sondern eine Vorzugsrichtung haben. Nehmen wir mal an, die durch die Luftunruhe verursachten Lichtausbrüche erfolgen bevorzugt nach rechts. Dann wird später bei der Überlagerung der einzelnen Frames des Videos kein runder Fleck entstehen, sondern ein nach rechts verlängertes Oval. Diese strichförmige Verformung erfolgt an jedem einzelnen Punkt des Bildes, und führt zu einem extrem unschönen Aussehen des sonst sehr scharfen Bildes, das sich viele Fotografen nicht erklären können. Um diesen extrem ärgerlichen Fehler zu vermindern, geht man wie folgt vor: Man beobachtet das Bild eines nicht zu hellen Sterns am Monitor bei ganz leichter Luftunruhe. Bei möglichst genauer Fokussierung (des schon wie üblich kollimierten Teleskops) sollten die durch die Luftunruhe bedingten "Ausreißer" am fokalen Bild völlig symmetrisch auf alle Richtungen verteilt sein! Ist das  nicht der Fall, so muss man die Kollimation so korrigieren, das dieser Zustand möglichst genau eintritt. Anderenfalls gibt es später die erwähnten Probleme, die paradoxer Weise gerade bei scharfen Bildern besonders unangenehm auffallen.

Kameramontage: Jedes Teleskop hat eine gewisse Krümmung im Bildfeld, und zu den Bildrändern hin zunehmende Bildfehler. Die Krümmung des Bildfelds führt dazu, dass nicht alle Bildbereiche gleichzeitig scharf gestellt werden können. Um dieses Problem zu minimieren gibt es bei jedem Teleskop eine Entfernung (normalerweise vom hinteren Ende des Tubusgewindes an gemessen, in der die Bildebene (so weit möglich) plan ist. Der Bildsensor der Kamera sollte also möglichst genau in diese Entfernung gebracht werden. Bei Nutzung einer Barlow muss man eventuell etwas experimentieren, um die richtige Entfernung zu finden. Ob das gut gelungen ist erkennt man daran, dass das Bild bis in die Ecken ordentlich scharf ist. Bei den üblichen SC-Optiken gelingt das allerdings nur bei kleineren Bildsensoren, und nicht bei Adaption einer normalen Kleinbildkamera. Bestimmte SC-Teleskope (z.B. die Celestron EHD) werben mit einem großen ebenen Bildfeld, das dennoch auch auf der Achse noch ein scharfes Bild erhält. Für viele andere Geräte gibt es speziell Bildfeldebner für die Fotografie. Die entsprechenden Fakten liefert der Astrohändler des Teleskops. Bei unserem Celestron 11" EHD ist der Abstand der Bildebene 14,6 cm, bei unserem "normalen" C11 sind es 15,2 cm.


Temperaturausgleich: Ein ganz erhebliches Problem kann ein mangelnder Temperaturausgleich in der Optik sein. Zur Überprüfung schaut man auf das hoch vergrößerte, defokussierte Sternbild, in dessen Ringen auch feinste Strömungen im Tubus z.B. als vertikale Linien sichtbar werden. Die Erzeugung hoch auflösender Bilder wird schon durch geringste Strömungen erheblich gestört, weil feinste Details in den Bildern verzerrt werden. Auch in der strömungsfreien Optik können sich keilförmige „Kaltluftseen“ über dem Spiegel bilden, die wie ein Prisma wirken, und lineare Verzerrungen hervorrufen. Wie man diese Fehler beheben kann (Lüfter im SC, Isolierung des Tubus) kann man sicher im Internet recherchieren, wir habe da noch keine Erfahrungen, und werfen zu stark belastete Videos vorerst einfach weg.

 

Taukappe: Ein ganz ärgerliches Problem ist Tau auf der Schmidtplatte eines SC. Beim Ausrichten des Teleskops auf den kalten Himmel kann sich die Schmidtplatte weit unter die Umgebungstemperatur abkühlen. Das führt zu einem Beschlagen, dass man mit einem Föhn kurzzeitig wegblasen kann (vorsichtig, Schmidtplatte nicht mit zu heißer Luft anblasen). Der Tau kommt aber sehr schnell zurück. Besser ist die Verwendung einer Taukappe, die es für alle SC im Handel gibt. Für hartnäckige Fällen ist sogar eine elektrische Heizung eingebaut. Es gibt auch getrennte Heizmanschetten, man lasse sich im Astrohandel beraten.


Das Seeing: Bei der hoch auflösenden Fotografie sind gute Bedingungen unabdingbare Voraussetzung. Wir stellen unseren Tubus rechtzeitig zum Auskühlen ins Freie, aufgebaut wird jedoch erst, wenn die Beobachtung mit einer kleinen Optik eine Chance auf gutes Seeing zeigt. Steht das Objekt nicht hoch genug am Himmel, so verzichten wir ganz. Zu den Problemen mit dem Seeing kommt dann noch die atmosphärische Refraktion (die Lufthülle wirkt wie ein Prisma), die das Bild des Mondes ganz leicht zu einem Spektrum auseinander zieht, was sich bei einer monochromen Aufnahme ohne Filter nicht korrigieren lässt. Etliche Fotografen verwenden daher (und das gilt auch für die Planetenfotografie) Farbfilter (Grün, Rot, IRpass) um die Refraktion zu entschärfen, und den Einfluss des Seeings auf das Bild zu verringern (lange Wellenlängen werden von der Luftunruhe nicht so stark beeinträchtigt, wie kurze Wellenlängen). Das verlängert allerdings die Belichtungszeit, was eher unerwünscht ist. Man sollte diese durchaus Erfolg versprechende Methode unbedingt mal ausprobieren, Genaueres siehe im Nachtrag zu diesem Tutorial. Noch ein wichtiger Tipp: Die Praxis hat gezeigt, dass es in der Dämmerung oft eine kurze Phase sehr ruhiger Luft gibt, bei der sehr gute Bilder gewonnen werden können, rechtzeitiges Anfangen kann sich also lohnen! Ist das Seeing bezüglich der hohen Auflösung grenzwertig, so probiert man es dennoch: Häufiger als man denkt lassen sich erstaunlicher Weise die Videos gut bearbeiten, obwohl die Luft nicht ganz ruhig war, das Gegenteil kann allerdings leider auch eintreten! Eine kleine Hilfe bei der Beurteilung des Seeings könnte so aussehen: Starks "Wabern" und Verzerrungen im Bild müssen noch nicht unbedingt bedeuten dass man chancenlos ist, es ist aber unabdingbare Voraussetzung für ein ordentliches Ergebnis, dass wenigstens blickweise das Bild auch mal ganz ordentlich scharf aussieht. Ist das nicht der Fall, so gibt es kein ordentliches Ergebnis, auch dann nicht, wenn das Bild sonst relativ ruhig erscheint....

 

Die Montierung: So banal es klingt, es könnte dennoch wichtig sein: Die Montierung sollte immer in Deklination und Rektaszension so ausbalanciert sein, dass ein geringer Zug in einer Richtung übrig bleibt. Tut man das nicht (also bei 100% Ausbalancierung), so könnte bei einer sehr leichtgängigen Montierung schon der geringste Wind die Optik um den Betrag des fast immer vorhandenen Lagerspiels hin und her bewegen, was sicher nicht erwünscht ist. Bei Mondaufnahmen ist es sinnvoll, die Nachführgeschwindigkeit dem Mondlauf anzupassen, falls die Elektronik das erlaubt. Wenn man bei Planeten mit der Ausschnittsfunktion der Kamera nur den ganz engen Bereich um den Planeten herum mit aufnimmt, ist es auch sinnvoll den Schneckenfehler der Montierung auszugleichen, falls vorhanden nutze man also die entsprechende Funktion der Elektronik! Je genauer die Montierung polar ausgerichtet ist, desto leichter gelingt die Aufnahme. Selbst bei unserer uralten, klapprigen Montierung bleibt dann ein Planet für mindestens 10 Minuten exakt in der Bildmitte, und die Handbox muss nicht zur ständigen Korrektur eingesetzt werden. So gelingen dann auch Videos, die später vom Computer ohne Probleme zentriert und gemittelt werden können.


Das Fokussieren: Vor der Aufnahme sollte man sehr präzise fokussieren, und die Einstellung des Fokus immer wieder neu machen, man läuft sonst Gefahr, dass alle Videos leicht defokussiert und wertlos sind! Beim Fokussieren ist nicht nur auf die  Schärfe zu achten, sondern auch auf minimale Unruhe im Bild. Oft ergibt der Punkt minimaler Unruhe ein besseres Kriterium für die richtige Fokussierung als die Schärfe selbst. Stellt man später ungleichmäßige Schärfe in den Bildern fest, so sollte man die Kollimation überprüfen, eventuell steht die Bildebene nicht senkrecht zur Achse der Kamera. Auch die modernen Crayford-Auszüge können die Ursache sein. Wir hatten schon zwei solcher Auszüge, bei denen der bewegliche Teil leicht schief eingebaut war, und auch nicht justiert werden konnte. Zur Überprüfung klemmt man den ganzen Auszug in eine große Schublehre, oder legt auf den auf einer ebenen Fläche stehenden Auszug eine Wasserwaage. Schon geringste Fehler sind bei hoch auflösender Fotografie tödlich, und man sollte das Teil dem Händler zum Tausch überlassen!


Einstellen der Software: Das ist ein weites Feld, und kann hier nicht erschöpfend dargestellt werden. Die Bezeichnungen der Regler und die Funktion unterscheiden sich auch je nach verwendeter Kamerasoftware. Selbst bei identischer Software können Regler je nach angeschlossener Kamera unterschiedlich arbeiten, das ist z.B. bei den Imaging Soruce Kameras der Fall, je nachdem ob die Kameras Firewire oder USB nutzen. Die zu den TIS-Kameras gelieferte Software IC Capture ist aber einfach und intuitiv zu nutzen, zusätzliche Ausführungen haben wir in unserem TIS-Kameratest in SuW 6/2008 gemacht, der hier als PDF zur Verfügung steht. Einige prinzipielle Anmerkungen die mehr oder weniger für alle Video-Kameras zutreffen, scheinen aber dennoch unbedingt erforderlich zu sein. Gamma, Gain und Belichtungszeit sollten zwar prinzipiell möglichst immer so gewählt werden, dass der volle Bereich des Histogramms (bei IC-Capture einblendbar) für den interessierenden Bereich des Bildsignals genutzt wird, aber man sollte  dabei folgende Hinweise beachten:

Nachträgliche Gamma-Korrektur? Eine nachträgliche Korrektur des Gammawerts bei der Bildverarbeitung ist möglich, wenn die Gammaregelung der Kamera erst hinter dem AD-Wandler einsetzt, und das Bildmaterial mit mindestens 16-Bit verarbeitet wird. Da wir nicht wissen ob die Gammaregelung bereits beim Digitalisieren eine Rolle spielt, und auch die Verarbeitungssoftware (Registax, Giotto, Avistack) definitiv Referenzpunkte etc. in kontrastreichen Bildern besser findet als in "flauen" mit nicht angepasstem Gamma aufgenommenen Videos, stellen wir den Gammawert schon bei der Aufnahme sorgfältig und optimal ein.

 


Seitenanfang


 
Teil 5: Normale Bildverarbeitung

Problembeschreibung: Da dieser Text speziell auch für Anfänger gedacht ist, kurz einige prinzipielle Erläuterungen. Mondbilder werden durch die Luftunruhe (Seeing) fast immer unscharf und verzerrt. Schärfe und Verzerrung ändern sich zeitlich sehr schnell, es gibt auch Momente scharfer und unverzerrter Abbildung. Leider betrifft das aber speziell bei Mondbildern immer nur einen kleinen Teil des Bildes, das Bild zerfällt in kleine Bereiche, die nie alle zusammen gleichzeitig gut abgebildet werden. Abhilfe schafft die Verarbeitung und Auswertung vieler Bilder eines Video-Films mit dem Computer in doppelter Hinsicht: Erstens wird eine große Zahl von Bildern ausgewertet, dabei addiert  sich die unvollständige Information der einzelnen unscharfen Bilder zu einem Bild mit hohem Informationsgehalt. Gleichzeitig reduziert  sich das in digitalen Bildern unvermeidliche Rauschen um die Wurzel aus der Zahl der Bilder. Verarbeite ich 900 Bilder, so sinkt das Rauschen also um einen Faktor 30. Erst bei reduziertem Rauschen ist es dann möglich, einen effektiven Filter zur Bildschärfung zu verwenden. Zweitens können Programme zur Erstellung von Mondbildern viele kleine Bereiche der Bilder unabhängig voneinander bearbeiten, und so den Schärfeverlusten und Verzerrungen durch schlechtes Seeing entgegenwirken. Für diese Art der Auswertung stehen mehrere Programme zur Verfügung, die mit leichten Abwandlungen nach dem gleichen Prinzip arbeiten. Die neueren Versionen diese Programme arbeiten weitgehend automatisch, der Anwender muss sich kaum Gedanken machen, und kommt bei standard Videomaterial sehr schnell zu einem ordentlichen Erfolg. Bei bestimmtem Videomaterial und für absolut beste Ergebnisse muss man dann aber gelegentlich doch in den Programmablauf eingreifen, und das erfordert je nach Programm eine nicht ganz einfache Einarbeitung in die Materie.

Prinzipieller Ablauf der Bearbeitung: Zunächst untersucht der Rechner die Lage aller Bilder (Frames) des Videos, und verschiebt die einzelnen Frames so, dass sie möglichst genau übereinander liegen. Die so ausgerichteten Frames werden zu einem Mittenbild gemittelt. Dann unterteilt der Rechner das Mittenbild in viele kleine Teilgebiete, in der Mitte eines jeden Teilgebiets wird ein Referenzpunkt festgelegt. Ein Referenzpunkt ist eine möglichst auffällige Struktur, die der Rechner später ausreichend sicher in allen Video-Frames wieder finden sollte. Nun wird jedes einzelne Video-Frame in Bereiche aufgeteilt, deren Bildqualität anhand bestimmter Kriterien bestimmt wird. In Folge sucht der Rechner den Referenzpunkt eines der zuvor festgelegten Teilgebiete in allen Frames des Videos, die eine genügende Qualität haben, und zentriert alle Teilbilder anhand des Referenzpunktes für dieses Teilgebiet. Dieser Vorgang muss für jedes einzelne Teilgebiete erfolgen, ist er für alle Teilgebiete beendet, so werden die zentrierten Teilbilder aller Teilgebiete überlagert, und zum fertigen Bild zusammengefügt. Einen Eindruck davon wie das abläuft gibt die folgende Zusammenstellung für die Bearbeitung eines kleinen Ausschnitts aus einem großen Mondbild:

Arbeiten mit Avistack 2: Einsteiger sollten vorerst den automatischen Ablauf eines der beschriebenen Programme verwenden, und können nun gleich unten bei "Avistack 2 automatisch" oder  "Autostakkert 3" weiter lesen. Die strukturierteste Programmierung mit vollem Zugriff auf alle wichtigen Parameter bietet die Software AviStack 2. Die Wirkung dieser Parameter muss man kennen, wenn man gezwungen ist, in die automatische Bildbearbeitung einzugreifen. Wir können hier keinesfalls ein Manual für Avistack 2 ersetzen, dennoch listen wir wenigsten einen präzisen Ablauf einer manuellen Bearbeitung für ein typisches Mondvideo. Jeder Nutzer muss sich dann über die Funktion der jeweiligen Parameter mit der eingebauten Hilfefunktion oder mit einer im Internet veröffentlichen Anleitung informieren, was  selbst dann nicht ganz einfach ist. Hier also der Ablauf der Bearbeitung eines Mondvideos: 

Block 1: Settings/processing/all manual setzen. Gegebenenfalls auch noch File/default parameters wählen. Mit File\Load movie gewünschtes Video wählen, dann File mit Maus anklicken (blau hinterlegt). Process file unten doppelklicken.  Fenster für Frame selection mit OK verlassen (Quality analysis falls gesetzt vorerst abwählen).

 

Block 2: Im Fenster Frame align parameters Option Surface aktivieren. Area radius/search radius auf 24/16 setzen. Den Schieber in der Videoleiste auf einen guten Frame setzen. Mit Rechst/Linksklick zwei diagonal entfernte, markante Punkte markieren. Fenster mit OK verlassen löst das Frame alignment aus.

 

Block 3: Im erscheinenden Diagramm unter die rote Linie klicken und  mit gedrückter Maustaste sehr weit abweichende Frames abmelden. Fenster Frame alignment diagramm (zeigt die Zahl der deakivierten Frames) mit OK verlassen. Im Fenster Frame alignend movie kann ein Video mit den korrekt zentrierten Frames geschrieben werden (nicht nötig).  Fenster mit  OK verlassen, im Fenster ROI kann mit der Maus eine ROI gezogen werden (normal nicht nötig).

 

Block 4: Fenster mit OK verlassen führt in das Fenster Set reference points. Minimum Distance 21,  Structure threshold 70, Lower cut-off z.B. 0.100 schließt schwarze Bereiche aus, Upper cut-off value schließt weiße Bereiche aus, und kann normal bei 1.000 bleiben. Unbedingt Kontrolle der Wirkung im Monitor-Bild.

 

Block 5: Fenster  mit OK verlassen liefert Fenster Quality analysis. Auf Standard quality analysis setzen. Noise reduction 1 und Quality area size 84 sollte passen. Fenster mit OK verlassen löst die Quality analysis aus, Fenster Frame quality diagramm mit OK verlassen. Im Fenster Quality sorted movie kann das Video qualitätssortiert geschrieben werden (nicht nötig).

 

Block 6: Fenster mit OK verlassen liefert Fenster Reference point alignment parameters. Area radius 24, serarch radius automatisch oder von Hand setzen, Quality cut-off oder Use frame cut-off besimmt die Zahl der verwendeten(!) frames, z.B. 50%. Fenster  mit OK verlassen löst das Reference point alignment aus. Fenster Reference point alignment diagramm mit OK verlassen.

 

Block 7: Im Fenster  Frame stacking (No Flatfield/Darkframe) wählen. OK löst das Frame stacking aus. Im Fenster Save stacked image minimum/maximum area (Randbeschneidung) nach Wunsch wählen, TIFF als Ausgabeformat, eventuell Save parameters wählen, um die verwendeten Parameter zu speichern (.asp-Datei). Dann Save anklicken.

 

Block 8: Fenster mit Close verlassen führt zum Post processing. Man setzt zum Beispiel zum Schärfen auf 2 Layers, und die Werte 0.22/130 für  beide Layers. Klicken auf OK erzeugt das geschärfte Bild. Im Fenster Save processed image Filetype setzen, z.B. PNG, und Save anklicken, eventuell zuvor noch Save parameters aktivieren. Close beendet die Prozedur. Die Ergebnisse findet man im Verzeichnis des bearbeiteten Videos. Das provisorisch geschärfte Bild zeigt, ob sich eine externe, noch ausgefeiltere Bearbeitung des ungeschärften Stacks lohnt.

 

Bei der Bearbeitung liefert AviStack eine Menge von Diagrammen, die einen über die quantitativen Ergebnisse der Zwischenschritte informieren, und dem Nutzer dadurch die gezielte Anpassung von Parametern erleichtern. Das obige Bild zeigt das Ergebnis einer anfänglichen Ausrichtung aller Frames eines Videos mit Hilfe der gewählten Punkte P1 und P2. Durch den roten Bereich kann der Anwender sehr weit verschobenen Frames von der Bearbeitung ausschließen. Im gezeigten Beispiel wäre diese Funktion bei maximalen Verschiebungen von nur 4 Pixel allerdings unnötig, eine starke Verschiebung sollte auch keinesfalls mit schlechter Qualität verwechselt werden. Die maximale Verschiebung ist übrigens ein Anhaltspunkt dafür, welcher Suchradius später mindestens verwenden sollte (ohne Korrektur 4, mit Korrektur 3). Das untere Diagramm zeigt, dass während der Aufnahme die x-Position (Rektaszension) ständig mit der Handbox korrigiert wurde, während das bei der geringen Drift in Deklination nicht erforderlich war.

 

Verändert man zum Test wichtige Parameter der Bearbeitung die die Zahl der Gebiete, die Überlagerung und die Qualitätsprüfung beeinflussen, so kann man je nach Videomaterial gelegentlich zu erkennbar besseren Ergebnissen kommen. Es ist also für Profis unverzichtbar, gelegentlich in den automatischen Ablauf einzugreifen. Nur wenn die Automatik beste Bilder liefert, kann man sich die nicht ganz einfache Einarbeitung in die zuvor beschriebenen Abläufe ersparen. An Planeten haben wir das  Programm nicht verwendet.

 

AviStack 2 automatisch: Der Vorgang funktioniert im Prinzip wie zuvor beschrieben, jedoch managed das Programm selbst den kompletten Ablauf mit zuvor eingegebenen Parametern, bzw. mit einer für viele Fälle geeigneten Voreinstellung. Eine komplexe Einarbeitung ist nicht erforderlich, Avistack 2 wird zu einem Geheimtipp für Anfänger. Auch für Profis wird das Programm zum absoluten "Muss", wenn große Datenmengen verarbeitet werden sollen, sofern diese im Y800 oder RGB24 Format vorliegen. Das beigefügte Clavius-Bild erzeugte Avistack in lediglich 3 Minuten, bei korrekter Einstellung der Wavelet- Schärfung war das Ergebnis sehr ansprechend und nur noch minimal mit Nacharbeit zu verbessern.

Oben sieht man einen stark verkleinerten Ausschnitt aus einem großen Bild der Clavius-Region, dass im Automatik-Mode berechnet wurde. Die Rechenzeit betrug drei Minuten. Die Wavelet Schärfung ist (zufällig) so gut, dass eine weitere Verbesserung des Bildes nur mit erheblichem Aufwand möglich ist. Die Eingaben für den automatischen Ablauf waren wie folgt: 

Am Ende erscheinen im Verzeichnis des Videos die gestackte TIFF-Datei und eine geschärfte Variante mit Suffix _pp. Falls das Ergebnis der Schärfung nicht optimal ist, kann die TIFF-Datei in anderen Programmen weiter verarbeitet werden, auch die geschärfte Version kann gegebenenfalls bei Photoshop noch verbessert werden (Unscharfe Maske, Gausscher Weichzeichner, Tonwertkorrektur). Hinweis: Als Default wird der Stack als FIT ausgegeben, das sich in vielen Programmen nicht optimal zur Weiterverarbeitung eignet. Daher haben wir die Voreinstellung auf TIFF geändert. Das fertige Bild muss eventuell noch vertikal gespiegelt werden.

Wie oben demonstriert, können im Parameterbaum Werte verändert werden. Es kann zum Beispiel bei sehr großen Bildern sinnvoll sein die Größe der Ausrichtgebiete zu erhöhen, weil sonst die Rechenzeit sehr stark zunimmt. Auch arbeitet die Voreinstellung mit der Nutzung von nur 20% der Videoframes. Das ist normalerweise zu wenig, und sollte bei kurzen Videos oder verrauschtem Material auf 50% angehoben werden. Nach dem kompletten Ablauf der Bearbeitung kann man im Parameterbaum zum Beispiel das Reference point alignment aufrufen, und Quality cut-off auf 50% erhöhen. Nach der Änderung wird das Programm im Automatik Mode -ohne  ganz von Vorne anzufangen- die Rechnung erneut ausführen, dieses Mal  mit 50% Verwendungsrate. Geänderte Parameterfiles können auch gespeichert werden, und später erneut bei anderen Videos an Stelle der Voreinstellungen geladen werden.

Batchmode: Lädt und markiert man anfangs mehrere Videos, so werden alle ohne manuelles Eingreifen mit den geladenen Parametern berechnet. Sogar die Wahl der Ausrichtpunkte P1 und P2 erfolgt automatisch, allerdings wird immer der erste Frame des Videos als Referenzframe verwendet. Das ist nicht ganz optimal, funktioniert aber besser als bei Programmen, die überhaupt keine individuellen Referenzpunkte bei jedem einzelnen Video automatisch suchen und setzen können. Auf diese Weise kann man über Nacht dutzende von Videos einer langen Sitzung am Teleskop verarbeiten, und am Morgen die Ergebnisse sichten und entscheiden, welche davon einer weiteren Verarbeitung zugeführt werden sollten.

Fazit: Avistack 2 ist ein hervorragendes Programm, das im automatischen Mode für Anfänger ideal nutzbar ist. Profis finden in Form von vielen Parametern die Möglichkeit der individuellen Anpassung an die jeweiligen Gegebenheiten. Die angehängte Wavelet Schärfung liefert (aber nur bei geeignetem Videomaterial) durchaus ordentliche Ergebnisse, für höchste Ansprüche sollte jedoch eine externe Bearbeitung erfolgen. Die Einarbeitung in alle Möglichkeiten ist aufwändig, unerlässlich ist dabei eine wenigstens einigermaßen ordentlich geschriebene Anleitung, die zumindest in Englischer Sprache verfügbar ist. Das Programm öffnet nicht alle gängigen Videoformate, die Entwicklung ist etwa Stand 2011, dennoch ist das Programm Spitze!

 

 

 

Software AutoStakkert 3.0.14_x64: Da wir früher unsere Mondbilder mit der sehr gut funktionierenden Software Avistack 1.81 erstellt haben, und bei Planetenvideos der "Oldie" Giotto 2.12 gute Ergebnisse lieferte, wurde Autostakkert von uns nicht verwendet. Als dann die Version 3 verfügbar wurde, starteten wir noch einmal einen Versuch. Das Programm arbeitete bei den ersten Tests weitgehend problemlos für Mond und Planeten. Die Bedienung ist extrem einfach und geradlinig, und für Einsteiger vermutlich die am schnellsten erlernbare. In sensationellen 30 Sekunden Rechenzeit entstand zum Beispiel ein hoch auflösendes Bild von Clavius, dass von Avistack erst nach langwieriger manueller Parameteranpassung nur minimal besser -und mit Automatik identisch- geliefert wurde. Sollte der erste Eindruck sich bestätigen, würden wir speziell Einsteigern unbedingt zu einem Versuch mit der 64 Bit Version AutoStakkert 3 raten. Ersatzweise auch mit der 32 Bit Version Autostakkert 2 ab Ausgabe 2.6.8, die fast identisch bedienbar ist. Die automatische Schärfung ist eigentlich nur zur Kontrolle gedacht, ob sich eine weitere Bearbeitung lohnt. Sie gelingt aber in einigen Fällen so gut, dass eine weitere externe Bearbeitung kaum erforderlich ist, siehe das unten eingeblendete Ergebnis im Vergleich zum Automatik-Ergebnis von Avistack 2 weiter oben. Die Bilder sehen fast identisch aus. Bei gehobenen Ansprüchen ist jedoch die Notwendigkeit einer externen Bearbeitung zu prüfen, und bei Planeten fast immer unverzichtbar.

 

 

Anwendung am Mond: Oben sieht man einen kleinen Ausschnitt aus einem großen Bild der Clavius-Region, dass mit Autostakkert 3 berechnet wurde. Die Rechenzeit betrug ohne die oben erwähnten, für normale Zwecke unnötigen, Parameter nur 30 Sekunden. Die Schärfung ist (zufällig) so gut, dass eine weitere Verbesserung des Bildes nur mit erheblichem Aufwand möglich ist. Die Eingaben in das Programm waren wie folgt: 

 

Open: Öffnet das gewünschte Video, wie auch File/Open AVI/SER aus der Kopfleiste. Im Prinzip können mehrere Videos gleichzeitig geöffnet werden. Nach manueller Bearbeitung des ersten Videos wird dann der Rest automatisch mit denselben Einstellungen verarbeitet. Dabei wird allerdings der Referenzpunkt für die Image Stabilization anders als bei Avistack 2 nicht für jedes Video individuell erzeugt. Falls keine Anpassung für das restliche Videomaterial erforderlich ist, ist das dennoch ein gutes Verfahren, allerdings mit Grenzen. Die Optionen Expand und Limit Frames wurden nicht untersucht.

 

Image Stabilization: Verschiebt die Frames so, dass sie genau übereinander liegen. Bei Mondbildern wählt man die Option Surface, dann setzt man das im  Monitor-Bild eingeblendete Quadrat mit Strg+Linksklick auf ein möglichst kontrastreiches Feature nahe der Bildmitte. Improved Tracking verwendet man nur bei ruckartigen Bewegungen im Video, es verlängert die Rechenzeit. Expand liefert auch die bei Bewegungen im Video hinzukommenden Randbereiche, Cropped schneidet diese oft unsauberen Bereiche ab.

 

Quality Estimator: Bestimmt die Bildqualität. Verwendet man Laplace (empfohlen) so sollte das Rauschfilter (Noise Robust) zunächst auf 6 gesetzt werden, das Verfahren reagiert empfindlich auf Bildrauschen. Die Option Local untersucht die Qualität nicht nur global im ganzen Frame, sondern auch für kleine Teilgebiete (empfohlen).

 

Analyse: Löst die Qualitätsprüfung aus, am Ende findet man rechts im Monitor das nach Qualität der Frames geordnete Video, und kann es durch Verschieben des Sliders kontrollieren (links beste, rechts schlechteste Frames). Das Progamm erzeugt dann einen Reference-Stack, der später zum Verschieben der Teilgebiete als Referenz verwendet wird. Vor dem Aufruf von Analyse beachten: Die Option Auto size sollte gesetzt sein, um automatisch einen guten Reference Stack zu bekommen. Double Stack ist ein Verfahren zur nochmaligen Verbesserung, das die Rechenzeit erhöht, und normal nicht erforderlich ist. Der Fortschritt der Analyse wird im Mittelfenster angezeigt.

 

Stack Options: Sie müssen vor dem Auslösen des Stackings gesetzt werden. Wir speichern als TIF, weil das in vielen Programmen gut weiter verarbeitet werden kann. Wenn man 50% der Frames verwenden will, setzt man 50 in eines der roten Felder. Man kann auch mehrere Felder ausfüllen um festzustellen, ob ein geringerer Prozentsatz ein besseres Ergebnis liefert. Sharpened sollte man mit Blend RAW in for 0% verwenden. Wichtig ist die Option Save in Folders, damit alle Files schön säuberlich in einem Folder landen. Die Namen der Files kann man optional noch anpassen.

 

Advanced Settings: Wer sein Ergebnisbild noch vergrößern will, kann hier eine Option wählen. Bei Mondbilder ist das wenig sinnvoll.

 

Stack: Bevor man Stack aufruft, muss man unbedingt im Monitor die Referenzpunkte erzeugen. Bei Planeten kann man das mit Manual Draw von Hand machen, bei Mondbildern ist die automatische Erzeugung sinnvoll. Zunächst wählt man die geeignete Größe, bei einem mittelgroßen Bild reichen ca. 1000 Punkte voll aus. Man kontrolliert das durch den Button Place AP grid. APs sollten nicht in schwarze Gebiete gelegt werden, die Kontrolle darüber gibt die Option Min Bright (minimale Helligkeit), die anfangs auf etwa 15 bis 30 gesetzt werden sollte. Auf die Option Multi-Scale, die mit verschieden großen AP-Gebieten arbeitet, kann man normalerweise verzichten. Nach dem Aufruf von Stack sieht man in der Mitte des Parameter-Fensters den Fortschritt der Berechnung.

 

Am Ende findet man einen für jeden gewählten Prozentsatz getrennt angelegten Ordner mit dem gestackten Bild ungeschärft (zur externen Verarbeitung) und geschärft (zur Überprüfung der Qualität). Die Schärfung erfolgt -falls "Blend RAW in for 0%" gesetzt ist- gelegentlich so gut, dass die externe Anwendung eines Rauschfilters und eine Gammakorrektur für ein sehr ordentliches Ergebnis sorgen. Man kann jederzeit neue APs setzen (Option Replace aktivieren) und z.B. mit mehr Punkten mit kleinerem Bereich erneut Stacken, um auszuprobieren, ob die Schärfe im Endergebnis zunimmt. Mit den Bildern wird eine .as3 Datei gespeichert, die man später mit der Maus in das Programmfenster ziehen kann, um die Parameter der Sitzung erneut zu laden.

 

Warnung: Keinesfalls sollte man versehentlich im Monitor oben rechts bei der Option Export Frames den Button All klicken. Vermutlich werden dann alle Frames des Videos als tausende von Einzelbildern im Rechner abgelegt.

 

Anwendung bei Planeten: Der Ablauf ist im Prinzip wie oben für Mondbilder beschrieben. Lediglich bei Image Stabilization gibt es Änderungen, man setzt die Optionen Planet und Dynamic Background für die Ausrichtung der Frames. Wie man in der Abbildung sieht wurde lediglich mit 5 Alignment Points (APs) gearbeitet. Sie wurden von Hand gesetzt, mit Linksklick auf die beiden Monde, die beiden Mondschatten, und  den Grossen Roten Fleck (GRF). Setzt man Punkte automatisch, so sind eventuell am Planetenrand liegende Punkte ungünstig, und sollten vermieden werden. Sie können einzeln mit Rechtsklick gelöscht werden. Bei unseren Versuchen lieferten automatisch gesetzte APs eine etwas stärkere Tendenz zu "Zwiebelringen" am Planetenrand. Feste Regeln gibt es jedoch nicht, man muss experimentieren. Das bearbeitete Videomaterial zeigte stärkere Verzerrungen am Planetenrand und war nicht optimal, dafür ist das Ergebnis wirklich gut. Gestackt wurden 2000 von 3000 Frames, Optik war ein Celestron C11 EHD mit 2,2µ Kamera TIS DFK72AUC02 ohne Barlow.

 

 

Fazit: Autostakkert 3 ist als 64 Bit Version unschlagbar schnell. Das Programm läuft mit wenigen Einstellungen fast automatisch, und ist daher für Einsteiger optimal geeignet. Auch anspruchsvolle User kommen schnell zu guten Ergebnissen. Die Verwendung für Planetenvideos ist ebenfalls gegeben, erfordert aber für beste Ergebnisse profunde Kenntnisse bei der Nachbearbeitung der gestackten Bilder. Wünschenswert wäre eine ausführliche Anleitung zum Programm, die wir hoffentlich gelegentlich noch finden werden. Wer einen Zugriff auf alle wichtigen Parameter benötigt sollte zu Avistack 2 greifen, muss dann aber mit einer längeren Zeit der Einarbeitung rechnen. Auch für die 100% vollautomatische Bearbeitung von großen Datenmengen ist das wesentlich ausgefeilter arbeitende Avistack 2 für geübte Anwender die angesagte Lösung. Dennoch ist -zumindest nach ersten Erfahrungen- AutoStakkert 3 wegen seiner universell für Mond und Planeten gegebenen Eignung und der Verwendung vieler Videoformate ein begeisterndes Spitzenprodukt, dass auch 2018 noch aktuell in der weiteren Entwicklung war.

 

Software Giotto 2.12: Dieses Programm ist sozusagen der "Urvater" der Software zur Verarbeitung von Videos zu fertigen Bildern. Giotto bietet daher noch nicht die Möglichkeit, ein Bild zur Eliminierung der Luftunruhe in Teilbereiche zu zerlegen, die dann getrennt bearbeitet werden. Es ist daher für Mondbilder nicht mehr erste Wahl. Giotto funktioniert aber bei der Erstellung von Planetenbildern gut, und es besitzt sehr gute Filter zum Schärfen. Wir verwenden daher Giotto neben Autostakkert 3 und Avistack 2 gelegentlich noch zum Stacken von Planetenvideos, und häufig für für die komplette Bearbeitung (Schärfen, Kontast, Gamma, Farbkanäle verschieben). Auch unsere mit AviStack gewonnenen Mondaufnahmen schärfen wir mit Giotto. Fast alle hier eingestellten Planeten/Mondbilder wurden mit dem "Oldie" bearbeitet. Aus Autostakkert 3 kommende TIF-Bilder mussten gelegentlich erst nach Photoshop geladen und erneut gesichert werden, damit Giotto sie akzeptiert.

Software Registax 6: Dieses Programm wurde 2011 fertig gestellt, und ist in der neuen Version angeblich auch für Einsteiger relativ einfach zu verwenden. Es arbeitet nach einem ähnlichen Prinzip wie Avistack. Wir geben das hier der Vollständigkeit halber zu Protokoll. Wer mag, kann sich das Programm ja mal ansehen. Da wir unsere Mondbilder mit Avistack bearbeiten, haben wir diese neue Version von Registax nicht ausprobiert. Ältere Versionen haben jedoch sehr gute Ergebnisse am Mond gezeigt, die Bedienung war jedoch nicht idiotensicher und teilweise problematisch.

Software Fitswork: Dieses Programm ist ein universell nutzbares Programm mit einer Unmenge von Möglichkeiten. Aus Zeitmangel haben wir nicht untersucht, welche der vielen interessanten Funktionen für die Mond/Planeten-Fotografie eventuell nutzbar sind, jedoch haben uns die Gauss-Schärfungsfilter von Fitswork interessiert. Schließlich ist die optimale Schärfung ein wichtiger (eventuell sogar der wichtigste) Vorgang bei der Erstellung hoch auflösender Bilder. Untersucht haben wir die Tauglichkeit speziell für die Mondfotografie mit unserer Kamera DMK41 (siehe Teil 6).

 

Software WinJUPOS: Oft ist es nicht möglich die gewünschte hohe Zahl von Frames in einem Video zu addieren, weil sich der Planet inzwischen zu weit gedreht hat. Es sei R: Entfernung zum Planeten in km; T: Rotationsperiode in Stunden; r: Radius des Planeten in km; t: Videolänge in Sekunden. Wenn man die Bahnbewegung von Erde und Planet vernachlässigt, dreht sich ein Äquatorpunkt des Planeten von der Erde aus gesehen etwa um den Winkel w = 360tr/TR Sekunden weiter. Beispiel: Setzt man für Jupiter in Opposition grob geschätzt R = 630.000.000km; T = 10h; r = 70.000km; t = 100s ein, so erhält man w = 0,4". Dieser Winkel tritt also bei allen Teleskopen als Schärfeverlust auf, wenn das Video 100s lang ist. Bei einem 10cm Refraktor ist das kein Problem, weil er ohnehin nur etwa 1,2" Auflösung hat. Kritisch ist das aber für ein 40cm Teleskop, dass selbst unter besten Bedingungen seine Auflösung von 0,3" dann nicht mehr voll nutzen kann.

Der Winkel w muss also möglichst kleiner oder gleich der Auflösung (Dawes-Kriterium) des Teleskops bleiben. Für ein Teleskop mit einer Öffnung von D Zentimetern folgt daraus für 550nm Wellenlänge die Forderung t = 0,0315TR/Dr für die maximale Videolänge. Für ein 30cm SC ergibt sich für Jupiter t = 94,5s als optimaler Kompromiss für die maximale Länge eines Videos, wenn man bei besten Bedingungen (Optikqualität/Seeing) hohe Auflösung erzielen will. Bei einer Marsopposition ergäbe sich mit einem Wert von etwa 626 Sekunden hingegen Entwarnung. Besitzer kleinerer Optiken können aufatmen, bei D = 10cm sind die Zeiten z.B. dreimal länger als in obigem Beispiel, bei Jupiter also schon fast 5 Minuten. Kann man in der berechneten Zeit keine ausreichende Zahl von Frames aufnehmen, muss man in direkter Folge mehrere Videos machen, die aus jedem Video erstellten Bilder mit einer speziellen Software am PC "derotieren", und dann erst überlagern. Hierzu eignet sich zum Beispiel die Software WinJUPOS, die im Internet kostenlos zur Verfügung steht. Sie ermöglicht die Verwertung von Bildern in einem Aufnahmefenster von gut 15 Minuten, und kann bei der Verbesserung der Bildschärfe einen erkennbaren Beitrag liefern. Man kann genügend viele Videos aufnehmen um bei der Verarbeitung der Frames stark nach Qualität zu selektieren, und dennoch sehr viele gute Frames überlagern, was wiederum ein rauschfreies Schärfen des fertigen Bildes ermöglicht.

 

Die zuvor erstellte Formel arbeitet übrigens relativ gut. Unsere besten Jupiterbilder wurden mit 100s Videodauer aufgenommen hier ein Beispiel und zeigen in den schärfsten Bereichen eine Auflösung von 0,6". Das ist etwas schlechter als die nach dem für die Formel zu Grunde gelegten Dawes-Kriterium möglichen 0,38", aber weder das Seeing noch unsere Optik waren absolut ideal, das Video nutzte zudem die maximal zulässige Aufnahmezeit von 95s voll aus, und es wurden alle Frames ohne Selektion (also auch der Mist) verwendet.

 

Seitenanfang

 

 

Teil 6: Schärfen von Bildern

Problembeschreibung: Durch die zuvor beschriebene Überlagerung von sehr vielen Einzelbildern wird das Rauschen sehr wirkungsvoll weitgehend aus dem Ergebnis-Bild entfernt. Daher ist es nun möglich sehr effektive Filter zur Schärfung anzuwenden. In dem zunächst noch unscharf aussehenden Bild ist ja durch die Addition und Mittelung vieler Bilder auch die Bildinformation von vielen Bildern "versteckt", und wartet nur darauf sichtbar gemacht zu werden. Im Prinzip ist diese Information also vorhanden, mit Hexerei hat das Schärfen also nichts zu tun, auch wenn das manchmal angesichts der enormen Verbesserung des Bildes kaum zu glauben ist. Man kann sich das ganz stark vereinfacht so vorstellen: Durch die physikalischen Eigenschaften der Optik (Beugung etc.) und durch Einflüsse der Luftunruhe erscheint das Bild eines Punktes nicht als scharf begrenzter Punkt, sondern als kleine Scheibe, deren Helligkeit von der Mitte nach außen abnimmt. Diese Abnahme erfolgt z.B. in Form einer glockenförmigen Gausskurve, oder einer ähnlichen PSF (point spread function). Ist die Form dieser PSF genau bekannt, so ist es möglich mit dem Computer die verschmierten Bildpunkte in die ursprüngliche Form "zurück zu rechnen", was zu einer ernormen Verbesserung der Bildschärfe führt. Ein anderer Ansatz ist der Folgende: Analysiert man das Frequenzspektrum eines Bildes, so befinden sich die feinsten Details in den höchsten Frequenzen des Spektrums. Hebt man nun diese Frequenzen mit einem Hochpass an, so werden die feinsten Details im Bild verstärkt, das Bild wirkt schärfer.

Grenzen der Schärfung: Alle Schärfungsverfahren haben natürlich "Risiken und Nebenwirkungen". Ein auf der PSF basierendes Verfahren kann natürlich nur korrekt arbeiten, wenn die PSF genau bekannt ist. Das ist aber in der Praxis nie der Fall. Auch eine zu intensive Anwendung der Schärfungsalgorithmen über die Grenze von 100% Rückrechnung der Bildunschärfe hinaus bewirkt unangenehme "Artefakte" im Bild, also Strukturen die mit dem ursprünglichen Bildinhalt nur noch wenig zu tun haben. Bei den so genannten Wavelet-Filtern entstehen bei immer stärkerer Anwendung in wachsendem Maße "Strickmuster"-ähnliche Strukturen in glatten Flächen, aber auch die Schärfung ohne Wavelets ist keinesfalls (wie oft behauptet) weitgehend artefaktfrei: Bei übertriebener Anwendung entstehen auch hier massenhaft feine Bildstrukturen, die mit dem Originalbild wenig bis garnichts zu tun haben. "Ungefährliche" Artefakte wie die Ringe in den dunklen Schatten der Krater könnte man durchaus ohne gravierende Entstellung des Bildes entfernen, nicht so jedoch die unzähligen feinen Veränderungen bei zu starker Filterung. Hier ist der Anwender aufgerufen, im richtigen Moment Schluss zu machen! Das ist bei "schönen Bildern" lediglich Geschmackssache, bei wissenschaftlichen Aufnahmen jedoch eine sehr heikle Angelegenheit.

Schärfen mit Photoshop: Da viele Bildbearbeiter dieses Programm besitzen fragt man sich natürlich ob damit eine gute Schärfung von Astrobildern möglich ist. Zur Verfügung stehen die Filter "Unscharfe Maske" USM und der "Gaußsche Weichzeichner" GW. Letzteren muss man gleich im Zusammenhang mit der Schärfung erwähnen, weil er zwischen den einzelnen Anwendungen der Unscharfen Maske fast immer erforderlich ist. Gute Ergebnisse lassen sich nur erzielen, wenn die Bilder im 16-Bit Format vorliegen und in PS auch so bearbeitet werden können (alte Versionen können nur 8-Bit Format verarbeiten, das reicht zum ordentlichen Schärfen nicht aus).

Im Allgemeinen beginnt man mit einer kräftigen Schärfung mit USM, zum Beispiel Pixelradius 1, Schwelle 0, 500%. Diese Schärfung wendet man zweimal an. Das dann eventuell sichtbare Rauschen wird mit GW Radius 0,4 gemildert, dann erfolgt erneut eine USM mit einem etwas größeren Pixelradius und einer höheren Schwelle, zum Beispiel Radius 1,7  Schwelle 5  Stärke 350 Prozent. Diese Werte müssen je nach Bild auch völlig anders gewählt werden, auch Zahl und Reihenfolge der USM und GW muss verändert werden, eine nicht ganz einfache Angelegenheit. Ein Beispiel für eine Schärfung nach obigem Schema ist dieser Clavius.

Schärfen mit Registax  und AviStack: Die Wavelet-Schärfung mit diesen Filtern ist recht einfach, experimentell findet man die für das vorliegende Bildmaterial optimale Einstellung der Filterebenen relativ schnell. Das Beseitigen von Restrauschen ist mit diesen Filtern durch negative Einstellung der unteren Bildebene möglich, geht aber nur auf Kosten der Bildschärfe bei feinsten Details. Je nach Rohmaterial liefern diese Filter ein sehr gutes aber auch weniger gutes Ergebnis, wir haben sie daher nicht weiter untersucht. Wir nutzen den Mexican Hat-Filter von Giotto, gegebenenfalls mit Nacharbeit durch unscharfe Maskierung bei Photoshop. Wer diese Methode nicht verwenden will, kann es ja mal mit der Wavelett-Schärfung versuchen.

Schärfen mit Giotto: Fertige .fit-Bilder aus AviStack sind zwar aus unerfindlichen Gründen vertikal gespiegelt, sie lassen sich aber ohne Probleme in Giotto laden. Das von Registax4 gelieferte TIF-Bild ist aus unerfindlichen Gründen der Grünkanal einer Farbaufnahme, und muss in Photoshop etc. in ein Graustufenbild umgewandelt werden, das dann in Giotto geladen und dort geschärft wird. Übersichtsaufnahmen ohne Barlow oder sogar mit Reducer muss man ganz anders bearbeiten (das geht oft sogar mit dem Wavelet-Filter von Registax und AviStack ganz gut), als die hoch auflösenden Bilder. Die hoch auflösenden Bilder filtern wir alle mit Giottos Mexican Hat, zum Beispiel mit Form: Rechteck, Charakteristik: Quadrat, Rauschfilter: Rechteck. Die Einstellungen der Filtergröße muss man ausprobieren, aber der Rauschfilter sollte immer direkt unter dem Schärfungsfilter liegen, also z.B. 3/5 oder 5/7 oder 7/9. Wie stark man schärft ist eine kritische Angelegenheit, weil auf diese Weise Artefakte im Bild entstehen können. Bei wissenschaftlichen Aufnahmen sollte man die Option „Kritische Dämpfung“ aktivieren, das verhindert zuverlässig „Überschwinger“ bei der Schärfung. Spätestens(!) kurz bevor die ersten aus dem Bildrauschen hervorgehenden Artefakte in ebenen Flächen auftreten, ist Schluss! Allgemein gilt: Will man später noch ein professionelles Rauschfilter einsetzen, so darf etwas mehr geschärft werden, sonst eher weniger. Das in einigen Giotto-Versionen fertig geschärfte .tif-Bild ist übrigens aus unerfindlichen Gründen ein Negativ, und muss mit Photoshop etc. erst in ein Positiv umgewandelt werden. Mit Photoshop kann dann noch eine Randbeschneidung und eine leichte Tonwertkorrektur erfolgen, sowie ein Rahmen und Beschriftung eingefügt werden. Bei gutem Seeing und ordentlichen Videos war das dann schon die Endstation. Gelegentlich ist noch eine minimale Nachschärfung mit der Unscharfen Maske von Photoshop sinnvoll. Der Mexican Hat Filter arbeitet ganz hervorragend an fast allen Bildern, und ist daher unser absoluter Favorit.

 

Schärfen mit Fitswork: Falls fertige .fit-Bilder aus AviStack aus unerfindlichen Gründen vertikal gespiegelt sind, können sie beim Einlesen in Fitswork umgedreht werden, wenn der entsprechende Menüpunkt gewählt wird. Zum Schärfen von Mondbildern sind primär die Gauss-Filter interessant, deren Funktion wir durch Anwendung auf bekannte Bilder und den Vergleich des Resultats mit früheren Ergebnissen anderer Filter untersucht haben. Für unsere Bilder war es sinnvoll eine iterative Gauss-Schärfung mit den Parametern Radius 1,5 bis 2 mit 10 bis 12 Iterationen bei ca. 100% Stärke mit einer normalen Gauss-Schärfung mit Radius 2 bei Schwelle 0 und Stärke 500% zu kombinieren. Nach dieser Vorarbeit haben wir mit Photoshop eine Unscharfe Maske angewendet mit Stärke 100%, Radius 1,4 und Schwelle 2, um den Schärfeeindruck zu verbessern.

 

In schwierigeren Fällen wie dem Musterbild wo z.B. wegen der sehr hellen Kraterränder mit hohem Gamma und geringem Kontrastumfang (mattes, kontrastarmes Bild) belichtet wurde, waren weitere Schritte erforderlich: Eventuell noch ein Unscharfe Maske mit Stärke 15%, Radius 250, Schwelle 0, um die schwache Struktur in Flächen zu verbessern, und dann noch eine Tonwertkorrektur zur Verbesserung der Strukturen speziell auch in sehr dunklen Gebieten, die im Musterbild sogar linear abnehmend (mit Hilfe einer Maske) über das Bild gelegt wurde. In Folge müssen nicht selten gröbere Artefakte der Schärfung aus dem Bild entfernt werden. Der Einsatz der Filter von Fitswork ist also nicht immer so schnell erledigt wie bei Giotto, das Ergebnis zeigt aber eine bessere Schärfung bei sehr kleinen Strukturen. Demgegenüber ist der Bildeindruck in der Fläche (speziell in dunklen Bereichen) bei kritischem Bildmaterial nur schwer auf einen ähnlich guten Stand wie bei Giotto zu bringen. Was bei einiger Mühe (speziell bei Fitswork war eine Nachbearbeitung erforderlich) in Etwa herauskommt, zeigen die folgenden Ausschnitte aus dem Musterbild:

 

 

Fazit: Die Schärfung ist wohl der wichtigste Schritt bei der  Erstellung von hoch auflösenden Bildern. Das Experimentieren mit Schärfungsfiltern ist daher von großer Bedeutung. Ohne uns genau festlegen zu wollen (dazu ist die Materie zu komplex) und ohne eine Empfehlung aussprechen zu wollen, listen wir hier die für unsere Mondbilder gültige Meinung auf, die sich noch ohne Berücksichtigung der endgültigen Wavelet-Filter von AviStack und Registax gebildet hat. Jeder Anwender sollte zudem die jeweils aktuellen Versionen der hier erwähnten und auch anderer in Foren empfohlener Software ausprobieren.

 

Seitenanfang



Teil 7: Bildverbesserung.


Professionelle Rauschfilter: Gelegentlich reicht schon der Gaußsche Weichzeichner von Photoshop zur Beseitigung von geringem Rauschen, was jedoch auch die Schärfe leicht verringert. Es gibt aber Möglichkeit zur viel selektiveren Verbesserung des Bildes, zum Beispiel den Einsatz eines professionellen Rauchfilters. Ein solches Programm ist unbedenklich, weil es keine Artefakte schafft, im schlimmsten Fall werden aber im Bild vorhandene Strukturen „glattgebügelt“, was natürlich nicht der Sinn der Sache ist. Es ermöglicht z.B. das völlige Entfernen von starkem Rauschen in schwarzen Flächen bei gleichzeitiger Entfernung von minimalem Restrauschen in grauen Bereichen, oder die Beseitigung von winzigen Artefakten, die eventuell bei zu starkem Schärfen entstanden sind. Das alles erfolgt bei korrekter Bedienung praktisch ohne Verlust an wichtigen Details des Bildes. Bei uns kam gelegentlich eine ältere Version des Programms NeatImage Pro+ zum Einsatz. Die Angelegenheit ist nicht ganz einfach zu lernen, lohnt sich aber in jedem Fall! Hier nur ein kleiner Hinweis zum prinzipiellen Ablauf. Die Arbeit erfolgt in zwei Schritten:


Noch einen Hinweis zur Anwendung von professionellen Rauschfiltern, der auch für die Planetenfotografie gilt: Wer schon von Anfang an den Einsatz eines solchen Programms vorgesehen hat, sollte bei der Aufnahme eventuell ein etwas größeres Öffnungsverhältnis wählen, als nach unserer Formel aus SuW 6/08 für die optimale Anpassung der Kamera erforderlich ist. Damit erhöht sich wegen der geringeren Lichtstärke zwar das Rauschen, das dann aber mit einem professionellen Rauschfilter besser vom gröberen Bildsignal getrennt werden kann. Für Kameras mit ohnehin geringer Lichtempfindlichkeit ist diese Verfahren allerdings keinesfalls zu empfehlen! Auch bei der Schärfung des Bildes kann man etwas aggressiver verfahren, wenn später mit einem professionellen Rauschfilter nachgebessert wird.


Sonstige Bildverbesserung: Die ultimative Notbremse ist das Retouchieren. Bei wissenschaftlichen Aufnahmen ist das nur erlaubt, wenn eindeutig(!) erkannte Artefakte oder Fehler aus dem Bild entfernt werden können, ohne den Bildinhalt zu verfälschen, das machen professionelle Bildbearbeiter mit NASA-Aufnahmen gelegentlich auch. Für uns liegen die Hürden nicht so hoch: Bevor man ein mühsam erstelltes Bild wegwirft, könnte man z.B. eine vom Stackprogramm beim Zusammenbau des Bildes eingefügte unsaubere Verbindung zweier Bereiche mit Stempel oder dem Wischfinger bearbeiten, oder aus schwarzen Flächen in den Kratern Überschwinger der Schärfung entfernen. Retouchieren sollten aber auch wir nur, wenn eine Struktur eindeutig(!) als Artefakt erkannt ist, besser ist es jedoch darauf völlig zu verzichten, und nur beste Videos zu bearbeiten. Durch die Erstellung von Auswahlen (gegebenenfalls mit weichen Kanten), können bestimmte Bereiche des Bildes gezielt bearbeitet werden, es gibt eine Unmenge von Funktionen um ein Bild zu „verbessern“, unmöglich hier alle aufzuführen, die man jedoch nur sehr vorsichtig anwenden sollte. Wichtig ist folgende Regel:


Mehr Belichtungsspielraum: Bei Mondbilder tritt sehr oft der Fall ein, dass die Videokamera den extremen Helligkeitsunterschied z.B. zwischen dunklen Partien und hellen Kraterrändern nicht überbrücken kann. Das führt bei korrekter Belichtung der dunklen Bereiche zu einer krassen Überbelichtung der oft nur kleinen hellen Bereiche. Will man damit nicht leben, so muss man mit Gamma und Belichtungszeitwahl die Überbelichtung vermeiden. Das führt aber zu einer Unterbelichtung der dunklen Bereiche, die sich später bei der Bildbearbeitung kaum noch ausgleichen lässt. Ein Notbehelf ist eine Auswahl mit weicher Kante um die kleinen hellen Bereiche, um diese von der Tonwertkorrektur der dunklen Gebiete auszuschließen, wie wir es gelegentlich gemacht haben. Die einzige ordentliche Lösung wäre aber die Aufnahme zweier unterschiedlich belichteter Videos, die überbelichteten Teile (Krater etc.) können dann durch ordentlich belichtete Auswahlen aus dem kurzbelichteten Bild ersetzt werden. Ein Verfahren, dass bei Deepsky-Aufnahmen an der Tagesordnung ist.

 

Seitenanfang



Teil 8: Zusammenfassung der Ergebnisse.


Als Mitte 2007 die Idee aufkam, eine ordentliche Optik und eine gute Kamera zu beschaffen, war noch nicht abzusehen, wie mühsam das sein würde. Letztlich führte das zu unserem Kameratest in SuW Heft 6/2008, und zu einer recht ordentlichen 12“ ACF-Optik von Meade. Viel Erfahrung bei der Erstellung von hoch auflösenden Bildern hatten wir nicht, und es ergab sich für uns ein Lernprozess, dessen Ergebnis sich in diesem Tutorial widerspiegelt.
Wichtig für das Gelingen guter Bilder sind demnach folgende Punkte:

 

Seeing  -  Kamera  -  Bildverarbeitung  -  Optik

 

Die Rolle des Seeings: Gehen wir einmal davon aus, dass auch in Mitteleuropa gelegentlich ausreichend gute Bedingungen für Aufnahmen mit sehr hoher Auflösung gegeben sind, so reduziert sich dieser Punkt auf ein genügend geduldiges Warten auf den richtigen Zeitpunkt. Das dauert natürlich um so länger, je größer der Durchmesser der Optik ist, wir erinnern uns: Die maximal erreichbare Auflösung ist direkt proportional zur Öffnung.

 

Die Rolle der Kamera: Die heute zur Verfügung stehenden CCD/CMOS-Kameras liegen in Bezug auf Lichtempfindlichkeit und Rauschverhalten zwar an der Grenze dessen, was man idealerweise wünschen würde, bei der Planetenfotografie wird es mit der Belichtungszeit oft schon arg knapp. Es ist aber dennoch kein Problem zu akzeptablen Kosten eine sehr ordentliche Kamera zu erwerben, und wie von uns beschrieben an die Optik anzupassen. Bei allen Aufnahmen mit s/w Kameras folgt dann noch die Überlegung zur korrekten Filterwahl um optimale Ergebnisse zu erzielen, einige Anmerkungen dazu weiter unten. Wer mit IR-Passfilter einsetzen will, sollte eine Kamera mit guter Empfindlichkeit im IR anschaffen. Ganz Bequeme oder Einsteiger können bei leichten Abstrichen mit einer modernen Farbkamera (auch mit Rolling Shutter) ohne großen Aufwand sehr schöne Planetenbilder machen. Ein unüberwindliches Problem ergibt sich jedenfalls bei der Wahl einer geeigneten Kamera nicht.

 

Die Rolle der Bildverarbeitung: Wer unser Tutorial gelesen hat kann unschwer feststellen, dass die Bildverarbeitung zumindest bei hoch auflösenden Mondfotos und bei Planetenaufnahmen mit Farbkameras eigentlich keine Geheimnisse birgt, die nicht jeder Neueinsteiger oder Anfänger mit ein wenig Übung meistern kann:


Bis zum fertigen Mondbild dauert das dann nur die Rechenzeit des Computers plus wenige Minuten. Bei Planetenaufnahmen mit Farbkameras ist die einfachste Lösung für Einsteiger das Addieren mit dem "Oldie" Giotto ohne jede Qualitätsauswahl in der Option „Zentrieren auf helle Scheibe“. Auch zum Schärfen und dem Ausgleich der atmosphärischen Refraktion durch Verschieben der Farbkanäle siehe unten ist Giotto bestens geeignet. Für noch etwas bessere Ergebnisse wählt man Autostakkert 3. Nach kurzer Übungszeit erhält man ganz erstaunliche Bilder, die ein durchaus „gehobenes“ Niveau haben, wie diese Bilder von Mars und Saturn oder diesen Jupiter. Die gezeigten Bilder entstanden wenig zeitaufwändig mit den oben erwähnten einfachen Schritten der Bildbearbeitung wie sie jeder Anfänger ohne streng gehütetes Wissen nach kurzer Übung machen kann. Wer auch als Anfänger bei der Planetenfotografie Filter verwenden möchte, sollte ein monochromes Luminanzbild (L) unter Einsatz z.B. eines Rotfilters oder eines 685nm IR-Pass Filters machen, und dann mit der Farbinformation einer Farbkamera (RGB) kombinieren. Das liefert auf relativ einfache Weise ein L-RGB ohne Verwendung von RGB-Filtern. Die Technik hierzu haben wir untersucht, und in einem Nachtrag zum Tutorial unten erklärt. Dieses Jupiter IR-RGB wurde von uns auf diese Weise erstellt. Das Geheimnis guter Bilder liegt also definitiv nicht in besonders ausgefeilten „geheimen“ Methode der Bildbearbeitung, es geht auch ohne aufwändige Verfahren mit zigfachen komplizierten Bearbeitungsschritten! Halten wir also fest, was den Neuling motivieren sollte:


Profis werden bei der Bildbearbeitung mit allen möglichen Tricks immer noch etwas mehr aus ihren Bildern herausholen, speziell bei der Planetenfotografie mit einer einzigen s/w Kamera und mehreren Videos durch verschiedene Filter ("echtes" RGB oder L-RGB Verfahren) gilt diese Aussage ganz besonders. Hier ist Erfahrung sehr nützlich, wird aber leider nicht immer im erwünschten Maße weitergegeben. Ein Beispiel hierfür ist die Homepage von Damian Peach, der ganz hervorragende Mond und Planetenbilder liefert. Obwohl er mit einem unnötig großen Öffnungsverhältnis arbeitet, bringt er das C14 exakt an die von uns berechnete Grenze der Auflösung. Hervorstechendes Merkmal seiner Aufnahmen ist dabei das Fehlen des sonst oft noch vorhandenen „Grauschleiers“ bei den Planetenaufnahmen. Information über seine Art der Bildverarbeitung suchte man jedoch auf seiner Homepage vergeblich, dafür gab es gegen Bezahlung eine DVD, die dann vermutlich auch nicht viel weiter hilft. Das finden wir sehr schade!


Die Rolle der Optik: Wenn also nun die Bildbearbeitung (abgesehen vom "echten" L-RGB oder RGB Verfahren) kein besonderes Wissen erfordert, warum liefern einige Leute hervorragende Bilder, während andere es maximal zu mittleren Achtungserfolgen bringen? Die Antwort darauf ist einfacher als man denkt: Was ein Video zeigt, ist mit einfacher Bildverarbeitung auch für weniger Geübte zugänglich, was ein Video nicht zeigt, bringt auch der beste Profi nicht hervor. Das Geheimnis liegt in der ausgesucht guten Optik die sich alle Amatuer-Profis irgendwie beschafft haben. Videos mit solchen Optiken unter guten Bedingungen aufgenommen, werden auch jedem weniger geübten Bearbeiter zu hervorragenden Bildern verhelfen. Von der Richtigkeit dieser Aussage konnte sich jeder selbst überzeugen, der das von uns früher mal auf CD angebotene Mondvideo kurz durch seine Bildverarbeitung gejagt hat. Halten wir also fest:


Hier ist guter Rat teuer, aber in Bezug auf die Qualität gibt es einige Denkansätze:


Wir prüfen die Optik beim Händler am künstlichen Stern, ist die Optik hier in Ordnung, so ist eine Rückgabe nach dem späteren Test, wie im Tutorial Abschnitt 1 beschrieben, eher unwahrscheinlich. Auf diese Weise sind wir auch an unsere recht gute Meade 12“ ACF- Optik gekommen. Hilfreich ist auch Folgendes: Einige Händler und Firmen bewerben ihre Produkte in den höchsten Tönen: Professionelle Optik, Qualität von professionellen Observatorien, Test-Protokolle aus fragwürdigen Quellen, Hersteller zeigen in der Werbung Bilder von perfekten Sterntests, die eine solche Optik in der Praxis nie liefern wird. Solche Werbeaussagen z.B. im Internet kann man kopieren, und später vorlegen, falls das Produkt die Anforderungen der Werbung nicht erfüllt. Umtausch bzw. Rückgabe sollte dann kein Problem sein. Wichtig ist es aber, dem Händler vor dem Kauf eindeutig zu sagen, dass die Optik für hoch auflösende Fotografie verwendet werden soll, eine Feilscherei um den billigsten Preis sollte man auch nicht anfangen, sondern eher für die Prüfarbeit freiwillig einen deutlichen Aufpreis anbieten….


Optikgröße: Wie wir im Tutorial gesehen haben, bestimmt einzig und allein der Durchmesser der Optik die maximal erreichbare Auflösung. Schon eine geringe Steigerung des Durchmessers um 2“ hat enormen Einfluss auf die Bildqualität. Dazu eine kurze Betrachtung: Im Amateurbereich haben zumindest fast alle Optiken aus der Massenproduktion eine mehr oder weniger kräftige Sphärische Aberration (SA) oder Zonen. Diese Problematik wächst oft mit steigender Größe der Optik. Das bewirkt nun, dass immer nur das Licht von einem bestimmten Teil der Spiegeloberfläche exakt in den Fokus fällt, das restliche Licht bleibt leicht defokussiert. Ein defokussiertes Bild zeigt aber extrem stark jede Luftunruhe (einige Astronomen fokussieren daher nicht auf maximale Schärfe, sondern auf minimale Bewegung im Bild). Besonders eine große Optik mit SA oder Zonen kann daher selbst bei relativ gutem Seeing nie ein ruhiges Bild zeigen. Daher hält sich hartnäckig die Vorstellung, dass das Seeing mit größer werdendem Optikdurchmesser immer mehr Probleme macht. In der Tat sind Optiken bis maximal 15cm Öffnung erkennbar weniger seeinganfällig, bei Durchmessern deutlich darüber ist es aber so, dass im Amateurbereich auch bei schlechten Bedingungen niemals die kleinere Optik das bessere fotografische Ergebnis liefert. 10“ bringen also auch bei schlechtem Seeing keinen Vorteil gegenüber 20“, mit besser werdendem Seeing spielen dann die 20“ immer gnadenloser ihren Vorteile aus! Wir halten also fest:


Für beste Ergebnisse bei Mond oder Planeten sind –mit der angestrebten Auflösung steigend- leider so gute Bedingungen erforderlich, wie es sie an einem durchschnittlichen Beobachtungsplatz nur an ganz wenigen Tagen im Jahr gibt. Man muss also an jedem klaren Abend einen Versuch machen, der nur in ganz wenigen Fällen das erwünsche Ergebnis liefert. Das ist für „Normalverbraucher“ wie uns, die ihre klapprige gebrauchte Montierung immer neu aufbauen müssen, eine Katastrophe! Profis habe oft ein Hütte mit fest installiertem Teleskop auf einer ordentlichen Montierung, und können mal eben probeweise „durchschauen“, ob das Seeing passt. Falls nicht klappt man die Hütte zu, bequemer geht es dann nicht mehr. Trotz aller dieser Hindernisse sollte man sich aber nicht entmutigen lassen. Man berechnet zunächst wie in unserem Tutorial beschrieben ganz realistisch, was mit der eigenen Öffnung an Auflösung maximal möglich ist, und freut sich dann, wenn es gelungen ist, dieser Vorgabe nahe zu kommen……


Unsere Arbeit ist damit vorerst beendet. Was wir aus unserer beschränkten Erfahrung heraus beitragen können, haben wir hier vorbehaltlos zu Protokoll gegeben. Einige interessante Fragen sind noch offen geblieben, und können eventuell später noch beantwortet werden!

 

Seitenanfang


 

Teil 9: Nachtrag zum Thema Filter und Infrarotfotografie.


Bei der Fotografie von Mond und Planeten kämpft man ständig mit Problemen, die das Ergebnis der Bemühungen verschlechtern. Drei dieser Probleme lassen sich unter gewissen Bedingungen durch den Einsatz von Filtern zumindest teilweise in den Griff kriegen:

Wer nun ein Kochrezept zur Verwendung von Filtern erwartet, wird enttäuscht sein. Bei der Verwendung von Filtern spielen so viele Faktoren eine Rolle, dass es unumgänglich ist, sich zunächst mit den Wirkungen der Filter vertraut zu machen. Nur so kann man dann in Einzelfall den Nutzen gegen die Nachteile abwägen, und zu einer geeigneten Auswahl kommen.

 

Was ist atmosphärische Refraktion? Licht von tief stehenden Objekten tritt unter einem flachen Winkel in die Atmosphäre ein, und wird daher wie an einem Prisma gebrochen. Im Bereich des sichtbaren Lichts nimmt die Brechung mit zunehmender Wellenlänge deutlich ab (Dispersion). Blaues Licht wird also stärker abgelenkt, und scheint daher für einen Beobachter in der rückwärtigen Verlängerung des Lichtweges von weiter oben zu kommen, rotes Licht wird weniger gebrochen, und scheint daher von weiter unten zu kommen. Das Bild eines Planeten besteht also aus mehreren leicht gegeneinander verschobenen farbigen Bildern, von denen das blaue Bild ganz oben, und das rote Bild ganz unten liegt. Erkennbar ist das an einem blauen Farbsaum oben, und einem roten Farbsaum unten, siehe Jupiter links oben.

 

Wie beseitigt man atmosphärische Refraktion? Bei Farbbildern ist das recht einfach. Man zerlegt das Bild am PC in die RGB - Kanäle (Rot, Grün, Blau), und verschiebt Blau nach unten, und Rot nach oben, bis alle drei Kanäle exakt übereinander liegen, siehe 2. Bild links oben. Das gelingt ganz einfach aber nicht zu 100% mit Giotto oder Photoshop. Bei s/w - Bildern ist eine nachträgliche Korrektur so nicht möglich, man muss schon bei der Aufnahme ein Farbfilter verwenden (geeignet sind IR, R, G) damit ein scharfes Bild auf die Kamera gelangt. Welches Filter man wählt hängt von der Luftunruhe ab, und wird weiter unten erläutert. Alternativ beseitigt man bei horizontnahen Aufnahmen die Farbaufspaltung auch ohne Filter mit dem bereits weiter oben beschriebenem ADC vollständiger als bei der nachträglichen Verschiebung der Farbkanäle.

 

Was ist Luftunruhe? Beim Durchlaufen der Atmosphäre passiert das Licht Bereiche unterschiedlicher Dichte. diese können oft sehr klein sein (Turbulenzzellen). Dabei wird das Licht in schnellem Wechsel in die verschiedensten Richtungen gebrochen, und kann in der Kamera kein scharfes Bild mehr erzeugen. Besonders schlimm ist das, wenn der Lichtweg in der Atmosphäre sehr lang ist, also bei tief stehenden Objekten, die Auswirkungen auf die Abbildung sind dann katastrophal, Fotografie ist unmöglich. Da in unseren Breiten das "Seeing" nur selten wirklich gut ist, macht man sich natürlich Gedanken darüber, ob es da eine Abhilfe gibt.

 

Wie beseitigt man die Auswirkungen von Luftunruhe? Eine nachträgliche Beseitigung der Unschärfe durch Luftunruhe ist (bis auf das übliche Schärfen mit Schärfungsfiltern und die Zerlegung des Bildes in Teilbereiche bei der Bildbearbeitung) unmöglich. Nun ist es aber so, dass die Brechung (Refraktion) und die damit auch verbundene Aufspaltung in Farben (Dispersion) mit steigender Wellenlänge abnimmt. Rotes oder gar infrarotes Licht wird erheblich weniger gestört als grünes oder blaues Licht. Bei s/w - Bildern setzt man einfach ein R-Filter oder besser ein IR-Passfilter oder vor die Kamera um die Abbildung zu verbessern. Das ist problemlos möglich, weil die modernen Kameras (speziell mit ExView-CCD) gerade im Rot und Infrarot eine sehr hohe Empfindlichkeit haben. Die Verbesserung der Abbildung ist beträchtlich, siehe Mondbilder. IR-Passfilter können beim Mond allerdings auch die Differenzierung von Graustufen leicht verschlechtern. Bei Farbe ist es etwas komplizierter. Hier macht man sich zu Nutze, dass das Auge die Bildschärfe nicht nach der Farbe (Chrominanz), sondern nach dem Hell-Dunkel-Anteil (Luminanz) eines Bildes beurteilt. Man fertigt also mit dem IR-Filter ein brauchbares s/w - Bild, und setzt die Farbe eines unbrauchbaren "normalen" Farbbilds ein. Das Ergebnis ist eine durchaus brauchbares IR-RGB, siehe Jupiter oben rechts. Bei weniger starker Luftunruhe kann auch ein R-RGB oder sogar G-RGB die Bildqualität verbessern, wobei diese Filter die Belichtungszeit wie auch ein IR-Passfilter stark verlängern. Nur auf diese Weise konnten wir trotz miserabler Bedingungen 2008 noch recht nette Aufnahmen von Jupiter als IR-RGB machen, und unter nicht ganz so schlechten Bedingungen 2009 ein Bild von Saturn als R-RGB. Ein weiteres IR-RGB von Jupiter entstand bei etwas besseren Bedingungen 2011. Ganz nebenbei haben wir festgestellt, dass man mit einem IR-Passfilter (in diesem Fall ein Astronomik IR-Bandpassfilter 642-824 nm) sogar bei Tageslicht schöne Mondfotos  machen kann. Hier das Bild Mond bei Tageslicht. Dabei verliert man natürlich wegen der längeren IR Wellenlänge etwa 27% (Astronomik) bzw. 33% (Baader IR-Passfilter 685 nm) an Auflösung, aus 28 cm Öffnung werden also etwa 20 cm, aber es gibt gelegentlich vor Sonnenuntergang eine kurze Phase ruhiger Luft, was diesen Mangel leicht ausgleicht.

 

Was ist schlechte Farbkorrektur? Mit astronomischen Teleskopen können nicht alle Wellenlängen (Farben) ohne Probleme in einem einzigen Brennpunkt gesammelt werden. Das führt zu Farbsäumen an den Bildern und reduziert den Kontrast erheblich, weil immer nur eine Farbe im Fokus ist. Besonders kritisch ist das bei Linsen, weil Gläser die verschiedenen Wellenlängen unterschiedlich brechen. Auch extrem teure Apochromaten haben noch restliche Farbfehler, und sei es nur im unsichtbaren IR oder UV, das aber von einer Kamera im Gegensatz zum Auge sehr wohl "gesehen" wird. Spiegel haben mit Farbfehlern kein Problem, sind sie mit Glas kombiniert (wie bei einem SC) so treten auch hier geringe Farbfehler auf. Die bei den Kameras vorgeschalteten Barlows oder Konverter bewirken ebenfalls (oft nur geringe) Farbfehler.

 

Wie beseitigt man die Auswirkungen schlechter Farbkorrektur? Bei Farbkameras ist eine Beseitigung der Unschärfen durch Farbfehler der optischen Komponenten im sichtbaren Licht leider unmöglich. Teilweise Abhilfe schafften nur eine bessere Optik, eine spezielle Korrekturlinse die für einige Refraktoren zur Verfügung steht, oder spezielle Filter zur Verringerung der Farbfehler ohne das Bild zu sehr einzufärben (z.B. Semi-Apo-Filter, Fringe-Killer). Bei Schwarz-Weiß Kameras liegt das Problem anders. Hier kann man Farbfilter einsetzen die die von der Optik nicht korrekt fokussierten Farben nicht durchlassen. Ist z.B. ein teurer APO im Sichtbaren Licht ohne Tadel, bildet aber IR und/oder UV nicht richtig ab, so verwendet man einen IR bzw. IR/UV Sperrfilter. Ist ein billiger Refraktor nur für Grün gut korrigiert, so verwende man ein Grünfilter. Das kann dann oft zu extrem guten Bildern führen, leider aber nicht zu Farbbildern. Für die Erstellung von Farbbildern könnte man an ein "echtes" G-RGB denken, das Auge sieht dann die Schärfe des G-Luminanzbildes, die Chrominanz (RGB) kann dann ruhig unschärfer sein. Das erfordert aber die Aufnahme von drei Videos durch R, G, und B Filter und eine nicht ganz einfache Arbeit am PC.

 

Also Alles bestens? - Leider nicht ganz!  Filter können bei schlechten Bedingungen die Bildqualität zwar ganz erheblich steigern, leider verlängern sie aber die Belichtungszeit, und verringern frequenzproportional die Auflösung des Teleskops, Beispiel IR-Filter: Bis 30% weniger Auflösung bei vierfacher Belichtungszeit. Man sollte eigentlich also wegen der Auflösung möglichst ein Filter für eine kurze Wellenlänge wählen. Da aber gerade das kurzwellige Blau stark in der Atmosphäre gestreut wird, würde die Wahl eher auf Grün fallen. Will man Luftunruhe kompensieren, so ist man zur Anwendung von Rotfilter oder sogar IR-Filter gezwungen. Wir haben ein IR-Filter mit 685nm verwendet, von der Auflösung her noch ein vertretbarer Kompromiss. Es gibt Filter die noch weiter im IR liegen, aber Vorsicht: Solche Filter verlängern die Belichtungszeit enorm, weil die Empfindlichkeit der CCD-Kamera in diesem Bereich oft schon wieder abnimmt. Wer eine für IR brauchbare Optik hat (und das sind z.B. praktisch alle Spiegel), und eine genügend empfindliche Kamera, der sollte bei schlechtem Seeing unbedingt mal Aufnahmen mit IR-Passfilter versuchen. Bei sehr gutem Seeing bringt das Filter nur dann Vorteile, wenn das Objekt bei einer s/w-Aufnahme sehr niedrig steht (atmosphärische Refraktion), bei gutem Seeing und hoch stehendem Objekt ist das Filter unnötig, ohne Filter werden dann (bis auf wenige Ausnahmen) die besten Ergebnisse erzielt.

 

Eigenschaften von Filtern bei der Verwendung  einer s/w-Kamera

Filter

Atmosphärische

Dispersion

Theoretische

Schärfe

Einfluss

Luftunruhe

Verlängerte

Belichtung

Farbfehler

der Optik

Erhöhter

Kontrast

IR pass

+

-

++

--

(+)

(+)(-)

Rot

++

-

+

-

++

(+)

Grün

++

o

o

-

++

(+)

Blau

++

+

--

--

(+)

(+)

IR sperr

o

(+)

o

-

+

(+)

 

(+) bedeutet: Wirkung von Fall zu Fall verschieden.      O bedeutet: keine wesentliche Wirkung.

 

Eigenschaften von Filtern bei der Verwendung  einer Farbkamera

Filter

Atmosphärische

Dispersion

Theoretische

Schärfe

Einfluss

Luftunruhe

Verlängerte

Belichtung

Farbfehler

der Optik

Erhöhter

Kontrast

IR sperr

(+)

o

o

-

+

(+)

Fringe Killer

 

o

o

-

+

(+)

Semi-Apo

 

o

o

-

+

(+)

Kontrast Filter   o o - (+) (+)

 

Ausnahmen von der Regel?  Wer bei Farbkameras Wert auf unverfälschte Farben legt, muss ein IR-Sperrfilter verwenden. Diese Filter sind bei normalen Farbkameras bereits fest eingebaut. Unter gewissen Umständen sollte man Filter auch bei besten Beobachtungsbedingungen und perfekter Optik verwenden. Gelegentlich können Details bestimmter Farbe auf Planeten durch die Verwendung eines geeigneten Filters verstärkt hervorgebracht werden, eins von vielen  Beispielen sei die Darstellung von Wolken auf der Venus mit einem UV-Passfilter oder die Fotografie des Mars mit einem IR-Filter.


Seitenanfang