Erstellung hoch auflösender Mond/Planetenaufnahmen (Version 3.5)

Von Peter Wellmann


 

 

Vorwort:  Version 2 unseres Tutorials wurde im Umfang stark erweitert, durch genauere Bestimmung der Brennweite unseres Teleskops kam es bei einigen zuvor veröffentlichten Zahlen zu unwesentlichen Anpassungen. Im Laufe der Jahre hat sich die Technik zur Erstellung von Mondbildern bei uns verfeinert, und die Geräte wurden besser. In Folge entstanden Mondbilder sehr guter Qualität, die für den von uns verwendeten Fernrohrtyp (Schmidt Cassegrain) und die zur Verfügung stehende Öffnung (30cm) fast  an der Grenze des theoretisch Machbaren liegen. Unsere Bilder landeten in Büchern, auf Astro-CD, als "Picture of the Day" in den USA, und wurden in bekannten Astronomie Zeitschriften gedruckt. Da es nicht ganz einfach ist solche Bilder zu fertigen, haben wir hier zusammengestellt was uns in diesem Zusammenhang wichtig erscheint. Fast alle der vorgestellten Verfahren eignen sich auch für bestimmte Bereiche der Planetenfotografie. Wer also Bilder wie die folgenden Beispiele  1.Terminator  2.Rupes Recta 3.Apenninen 4.Saturn 5.Mars 6.Jupiter-IrRGB erstellen möchte, ist sicher an dieser Information interessiert. Alle Aussagen in diesem "Tutorial" kommen aus der Praxis unserer Aufnahmen, Formeln wurden nicht aus wenig überschaubaren theoretischen Ansätzen gewonnen sondern aus Bildern anerkannter Mondfotografen, und beschreiben lediglich deren Praxis. Wer anderer Meinung ist, darf das gerne sein!

 



Teil 0: Montierung und Optik:


Die Montierung: An die Montierung werden keine besonderen Ansprüche gestellt. Für die Aufnahme von Einzelbildern ist sogar eine polare Ausrichtung entbehrlich, die Montierung darf allerdings bei der Nachführung (und möglichst auch bei der Korrektur) keine Schwingungen produzieren. Das überprüft man am einfachsten durch die Betrachtung eines Sterns bei extrem hoher Vergrößerung und absolut ruhiger Luft. Zum Gegencheck schaltet man die Nachführung aus, bewegt sich der Stern dann völlig ruhig und geradlinig aus dem Bildfeld, so war ein eventuell zuvor vorhandenes Zittern durch die Montierung verursacht, und nicht durch mangelhaftes Seeing. Eine Handsteuerbox für die Feinbewegung und zur Betätigung eines Elektrofokussierers wäre sehr hilfreich. Sollen Mosaike aus mehreren Bildern erstellt werden, so muss die Montierung relativ gut polar ausgerichtet werden, damit sich bei der längeren Aufnahmezeit für die Serie die Bilder nicht gegeneinander verdrehen.


Die Optik: Hochauflösende Fotografie ist (perfekte Optik und Kamera vorausgesetzt) eine reine Öffnungsfrage. Sage mir, welche Öffnung dein Teleskop hat, und ich sage dir, welche Auflösung du erreichst. Entscheidend für die maximale Auflösung ist auch bei flächenhaften Bildern der Durchmesser des zentralen Beugungsscheibchens (Airy-Disk) das eine Optik von einem Lichtpunkt liefert, weil sich auch ein flächenhaftes Bild aus einzelnen, sich überlagernden Bildpunkten aufbaut. Mäßig obstruierte Spiegel (Obstruktion = teilweise Abdeckung des Hauptspiegels durch den im Strahlengang befindlichen Sekundärspiegel) sind bei hoher Auflösung gegenüber Refraktoren eher im Vorteil, weil sie deutlich kleinere Airy-Disks produzieren können, und damit höhere Auflösung liefern. Sie haben zwar mehr Licht in den Beugungsringen, und daher einen geringeren Kontrast als ein Refraktor (also einen schlechteren visuellen Schärfeeindruck), aber das lässt sich fotografisch sehr leicht bei der Bildbearbeitung ausgleichen. Aus diesem Grund haben übrigens obstruierte Systeme auch bei der Trennung von Doppelsternen die Nase vorne.


Der schlechtere Ruf der Spiegel gründet sich im Wesentlichen darauf, dass apochromatische (also farbreine) Refraktoren großer Öffnung extrem teuer sind, und daher prinzipiell eine hohe Qualität aufweisen (wer lässt sich schon für etliche tausend oder gar etliche zehntausend Euro ein Gurke anhängen), Spiegel hingegen fast alle aus mehr oder weniger billiger Massenproduktion stammen, und auch in entsprechend reduzierter Durchschnittsqualität auf den Markt kommen. Es gibt zwar einzelne Geräte mit (zu Recht) gutem Ruf, wie z.B. das Celestron C9,25 mit seiner legendären Qualität, aber es bleibt dem Amateur leider nicht erspart, jede Spiegeloptik auch mit einem 98% Strehl Protokoll (Strehl 100% = perfekte Optik), Papier ist geduldig, selbst auf die Tauglichkeit für hoch auflösende Fotografie zu testen.


Da der Test am Himmel wegen der üblichen durchschnittlichen Seeing-Bedingungen (Seeing = Luftunruhe, schlechtes Seeing zerstört das Bild) problematisch ist, bleibt nur die terrestrische Variante. Man betrachtet mit dem minuziös und akribisch kollimierten Teleskop (diese Justage ist extrem wichtig, wer da keine ausreichende Erfahrung hat, sollte unbedingt einen Experten zu Rate ziehen) bei ganz ruhiger Luft (notfalls auch am Tag) ein mindestens 100m entferntes, extrem feingliedriges Objekt (z.B. kleine Kratzer auf dem Blech einer Dacheindeckung, feinste Risse im Putz eines Kamins, besser aber nachts feinste Strukturen wie die Flügel oder Beine von Insekten, die an den Gläsern vieler Straßenlaternen hängen) mit einem guten Okular. Sind diese Strukturen gefühlsmäßig gut scharf bis zu einer Vergrößerung


Es mag etwas verwundern, dass wir die letzte Kategorie, die oft nur für Refraktoren reklamiert wird, auch auf Spiegel anwenden, aber wie oben dargestellt liefern perfekte Spiegel fotografisch theoretisch mindestens so scharfe Bilder wie Refraktoren, und unsere Tests an Dutzenden von Teleskopen haben dieses Vorgehen bestätigt. So liefert die von uns im Moment verwendete 30cm SC Optik bis weit in den Bereich der „leeren“ Vergrößerung hinein bei 850fach an meinem terrestrischen Standard-Objekt absolut untadelige Bilder, und das, obwohl die Optik im sehr ausführlichen interferometrischen Test durchaus noch erhebliche Rauhigkeit und geringe andere Fehler zeigt. Abschließend sei noch einmal darauf hingewiesen, dass man solche Vergrößerungen nicht am Himmel prüfen kann, weil die Luft dazu in unseren Regionen (fast) nie ruhig genug wird! Auch zeigt unsere Erfahrung (leider), dass nur ein geringerer Teil der Produkte aus der Massenfertigung die dritte Stufe der obigen Skala erreichet. Erfüllt die Optik nur die erste Stufe, so würden wir sie umgehend dem Händler zurückgeben!


Seitenanfang

 


 
Teil 1: Maximale Auflösung bei Mond/Planetenbildern

 

Punktabbildung: Leider kann eine Optik einen hellen Punkt (z.B. einen Stern) nicht punktförmig abbilden. Die Beugung des Lichts an der runden Öffnung des Teleskops mit Durchmesser D führt zu einem hellen Scheibchen (Airy-Disk) umgeben von mehreren im Idealfall nur schwach sichtbaren hellen Ringen. Entscheidend für die maximale Auflösung im Bild der Optik ist der Durchmesser des Airy-Disks, je kleiner er ist, desto besser ist die Auflösung der Optik. Für den Durchmesser d des Airy-Disks gilt in Abhängigkeit von der Wellenlänge λ des Lichts und dem Öffnungsverhältnis f („Blende“) die Formel d = 2,5 λf. Für eine Optik mit 30cm Durchmesser bei 3m Brennweite (f10) ergibt sich z.B. für 550nm Wellenlänge ein Durchmesser von ca. 14 Mikrometern (Für Profis: Das entspricht etwa der doppelten Halbwertsbreite der PSF).

 

Auflösung bei Punktabbildung: „Auflösung“ ist im Zusammenhang mit optischen Teleskopen des Durchmessers D ein gut definierter Fachbegriff und ist in Form des Rayligh bzw. Dawes-Kriteriums geregelt. Dabei geht es um die Frage „Bei welchem Winkelabstand a (gemessen im Bogenmaß, nicht  in Winkelsekunden) ist das Bild zweier gleich heller Punkte gerade noch vom Bild eines einzelnen hellen Punktes unterscheidbar"? Das Dawes-Kriterium (für kleine Winkel gilt a = λ/D) geht davon aus, dass zwei Airy-Scheibchen sogar im Mitten-Abstand von weniger als ihrem halben Durchmessers gerade noch als Überlagerung zweier Scheibchen erkannt werden können. Das Rayligh-Kriterium (für kleine Winkel gilt a = 1,22 λ/D) setzt die Mitte eines Scheibchens in den ersten dunklen Ring um das zweite Scheibchen, ist so um einen Faktor 1,22 weniger optimistisch, und fordert einen um diesen Faktor größeren Abstand. Nach Dawes liefert eine Optik mit 10cm Öffnung nach Umrechnung in Winkelsekunden bei 550nm Wellenlänge etwa 1,2 Winkelsekunden Auflösung. Die Auflösung steigt proportional zum Durchmesser der Optik, eine 30cm-Optik löst demnach dreimal besser auf, und erreicht 0,4“ (exakt 0,38“). Das bedeutet, dass bei einem Winkelabstand von 0,38“ zwei gleich helle Punkte (z.B. Doppelsterne) gerade noch als zwei Punkte erkannt werden können, obwohl sich ihre Bilder schon mehr als halb überlappen.

 

Auflösung bei Flächen: In Anlehnung an obige Definition nun die Frage: „Ab welchem Durchmesser ist eine Struktur mit hohem Kontrastumfang auf dem Mond gerade noch erkennbar“? Hierzu gibt es keine eindeutige Definition,  da aber wegen der ungestörten Überlagerung von Wellen sich auch ein flächenhaftes Bild aus einzelnen Bildpunkten zusammensetzt für die das Dawes-Kriterium gilt, ist zu vermuten, dass dieses Kriterium in etwa auch die Auflösung im flächenhaften Bild (Mond, Planeten) beschreibt. Ich möchte aber an dieser Stelle keine komplizierten theoretischen Ansätze zur Herleitung einer Formel für die Auflösung in flächenhaften Bildern machen, die dann in Folge zu endlosen Diskussionen führen. Daher beschränke ich mich darauf aus den weltweit besten Amateurfotos und aus scharfen Passagen eigener Bilder durch Vergleich mit Mondbildern der NASA die feinsten noch sichtbaren Details zu bestimmen und die so gewonnenen Grenzen in ein Formel zu fassen. Eine solche reine Beschreibung der Praxis bedarf keiner prinzipiellen Rechtfertigung, Fehler durch die Unsicherheit bei der Bestimmung der Kraterdurchmesser liegen im einstelligen Prozentbereich.

 

Ein Beispiel zum Verfahren: Unter Anderem haben wir kleine scharfe Bereiche in unserem Clavius Bild gesucht. Diese Bereiche haben wir mit einer hoch auflösenden Clementine-Aufnahme (Map-A-Planet/USGS) verglichen. Als Maßstab haben wir den inneren Durchmesser des Kraters Clavius D mit 27km angesetzt. Wegen der nicht klar definierten Grenzen der äußeren Kraterwälle wurden alle Durchmesser auf die höchsten Ränder der Wälle bezogen.

 

Um die folgenden Zahlen zu verstehen ist unbedingt zu beachten, dass Kraterdurchmesser natürlich aus den NASA-Bildern bestimmt werden müssen und nicht(!) aus den Teleskop-Bildern, weil unter einer gewissen Grenze der Durchmesser im Teleskop-Bild nicht mehr durch den echten Kraterdurchmesser bestimmt wird, sondern einen nahezu konstanten Wert annimmt, der durch die PSF (Point Spread Function) der Optik bestimmt wird (Genaueres siehe weiter unten). Aus den Beispielen ergab sich unter Beachtung der Mondentfernung zum Zeitpunkt der Aufnahmen folgendes Resultat (Kilometerangaben gelten für eine mittlere Mondentfernung):

 

 

Fazit: Unter besten Bedingungen mit absolut perfekten Optiken haben die besten Mondfotografen weltweit gelegentlich noch geringfügig bessere Werte erzielt. Als Beispiel könnte eine Plato-Aufnahme mit einem C14 (35cm Öffnung) von Peach gelten, die auf maximale Auflösung getrimmt wurde, und ungefähr 50 Kleinkrater in der Plato-Ebene bis hinab zu 500m Durchmesser zeigt. Damit ist die Frage nach der Auflösung für gute Amateur-Teleskope beantwortet: Ein relativ verlässlicher mittlerer Wert der Winkelauflösung für die sichere Detektierbarkeit feiner Strukturen ist durch die Formel des zweiten oben besprochenen Falls mit der Formel  a = 0,13/D gegeben, dieser Wert entspricht dem Mittel aus Rayligh und Dawes-Kriterium. Unter besten Bedingungen sind noch wesentlich feinere Strukturen „detektierbar“ aber nicht mehr geometrisch „abbildbar“. Das gilt insbesondere auch für lang gezogene Strukturen (Mondrillen, Encke-Teilung bei Saturn), die ebenfalls noch unterhalb der oben aufgezeigten Grenzen auf Bildern erkennbar sein können. Besitzer ganz perfekter Optiken können im günstigsten Fall mit nochmal geringfügig besseren Werten rechnen, bei Objekten mit geringem Kontrastumfang reduzieren sich hingegen die Werte.

 

Generell werden große Optiken mehr Mühe haben obige Grenzen zu erreichen, weil es deutlich schwerer ist eine große Optik mit der erforderlichen Qualität zu fertigen. Auch der Kontrast den eine Optik liefert ist von Bedeutung. Ist er hoch (teurer APO-Refraktor), so wird eine grenzwertige Auflösung natürlich eher erreicht, als bei einem preiswerten SC mit Fensterglas-Schmidtplatte. Jeder Nutzer muss also seine Optik nach diesen Kriterien selbst einordnen und dann entscheiden, welche der oben genannten Grenzen er damit erreichen wird......

 

 

Eine 20cm Optik wird Krater zeigen, die nur 0,2 Bogensekunden größer sind als bei einer 30cm Optik. Aber Vorsicht! Zwischen diesen Werten liegen beim Mond ganze Welten! Eine Verdopplung der Auflösung führt nicht zu einer Verdopplung, sondern zu einer erheblich größeren Zunahme der sichtbaren Strukturen, weil auf dem Mond in vielen Regionen die Zahl der Objekte mit abnehmender Größe rasant ansteigt! Man kann das leicht an einem Apollo-Bild von Ptolemaeus oder einer anderen kraterreichen Region nachprüfen. Der Mond bekommt dadurch ein völlig neues Bild, und es lohnt sich, von 20cm auf 30cm Optikdurchmesser umzusteigen. 35 – 40 cm Optiken sind dann schon wieder eine ganze Klasse besser, und die 30cm Optik wird chancenlos, für hoch auflösende Bilder reicht dann aber das Seeing nur an wenigen Tagen im Jahr….

 

Was sieht man wirklich ? Nun noch ein ganz wichtiger Hinweis! Bei obigen Überlegungen geht es darum, wann ein Struktur auf dem Mond oder einem Planeten gerade noch im visuellen oder fotografischen Bild „detektierbar“ ist. Im Grenzbereich ergibt sich dabei aber keinesfalls ein geometrisches Abbild dieser kleinsten Strukturen, sie sind also nicht wirklich "aufgelöst", sondern nur "detektiert". Im absoluten Grenzfall beträgt z.B. bei unserer 30cm Optik die Winkelgröße gerade noch detektierbarer Strukturen etwa 0,32" bis 0,42", die an der Abbildung beteiligten Airy-Scheibchen  haben aber schon einen Durchmesser von bis zu 0,9“. Das ist zwei bis dreimal so groß wie die eigentliche Bild-Struktur, deren Form daher weitgehend durch die Form des Airy-Disks (bzw. die PSF) bestimmt wird. Bei Annäherung an die Grenze der Detektierbarkeit geht also die „geometrische“ Abbildung in wachsendem Maße in ein „Artefakt“ mit einem Durchmesser über, dessen Aussehen weitgehend durch die PSF bestimmt ist. In der Praxis haben die kleinsten noch schwach angedeuteten Krater in einem hoch auflösenden Mondbild alle nahezu dieselbe Größe, und lassen keinen eindeutigen Rückschluss auf die tatsächliche Größe des Kraters auf dem Mond zu. Das erklärt auch die oft falschen Angaben über die "Auflösung" von Bildern: Misst man am PC-Bildschirm die Ausdehnung eins kleinen, extrem kontrastarmen Kraters von 5 Pixeln und bestimmt daraus den Durchmesser, so könnte der tatsächliche Durchmesser  auf dem Mond erheblich kleiner sein! Das gilt im Übrigen auch für andere Strukturen, die Encke-Teilung im Saturnring wird von kleinen Optiken aus eben diesem Grund viel breiter abgebildet (besser: "detektiert") als erwartet.

 

 

Wie das in der Praxis aussieht zeigt der Vergleich zweier Bilder des Kraters Plato, die mit Teleskopen stark unterschiedlicher Öffnung (Blende) gefertigt wurden. Das untere  Bild der großen Öffnung zeigt deutlich verschieden große Krater in der Platoebene, die Doppelkrater oben sind einwandfrei getrennt, Konturen wirken scharf. Das obere, für die kleine verwendete Öffnung hervorragende Foto, zeigt exakt die Merkmale die beim vollen Ausreizen der theoretischen Grenze in einem Bild zu erwarten sind: Die kleinen Krater in Plato erscheinen durch die PSF aufgebläht und fast gleich groß, die Doppelkrater oben sind daher nicht mit Zwischenraum getrennt. Es gibt zudem abgerundete, durch die PSF mitbestimmte Kanten auch an allen anderen kleinen Strukturen (bitte nicht mit dem Bildrauschen verwechseln).

 

Das Bild der kleinen Öffnung zeigt übrigens ein kräftiges Rauschen (körniges Aussehen), das eine deutlich kleinere Struktur hat als die kleinsten echten Bildstrukturen. Mit einem Rauschfilter könnte man also dieses Rauschen recht wirkungsvoll aus dem Bild entfernen, eine Folge des großen Öffnungsverhältnisses (f46) mit dem das Bild aufgenommen wurde. Im unteren Bild (aufgenommen mit f21) hätte Rauschen die selbe Größe wie im Bild oben, könnte aber nicht mehr entfernt werden, weil die kleinsten echten Details von gleicher Größe wie das Rauschen wären, eine Tatsache, über die später noch geredet wird.

 

Seitenanfang

 

 

Teil 2: Wahl der CCD-Kamera bei Mond/Planetenbildern

 

Monochrom oder Farbe? Eine Farbkamera üblicher Konstruktion hat gegenüber einer monochromen Kamera einen Nachteil. Über den Pixeln des CCD liegt eine Maske aus kleinen Farbfiltern in sich wiederholenden Gruppen von je 2x2 = 4 Filtern. Von diesen Filtern sind zwei diagonal gegenüberliegende grün, und je einer rot beziehungsweise blau (Bayer-Maske). Aus den Intensitätswerten der so belichteten Pixel (Raw-Bild) muss der Computer (oder die in die Kamera eingebaute Elektronik) die einzelnen Pixel des Farbbildes nach komplizierten Algorithmen berechnen. Dabei wird sowohl die Helligkeit als auch die Farbe durch Interpolationen gewonnen. Das ist natürlich nicht ganz unproblematisch, und gelingt je nach verwendetem Algorithmus (nicht alle Kameras sind da gleich) mal besser und mal weniger gut. Auf jeden Fall ergibt sich natürlich ein Schärfeverlust gegenüber einer entsprechenden monochromen Kamera. Auch führt die Farbinterpolation gegebenenfalls zu Farbsäumen, die mit den angrenzenden Farben nicht identisch sind. Das Bild unten zeigt das Problem anhand der Fotografie einer Rasierklingen-Kante in gelbem Lampenlicht. Das sich auch bei der monochromen Abbildung keine scharfe Linie ergibt, ist durch die Beugung des Lichts an der Öffnung der Optik bestimmt. Im vorliegenden Fall liegt die wirkliche Kante der  Rasierklinge in der Mitte zwischen den roten Linien, die Theorie verlangt eine Verbreiterung auf ca. drei Pixelbreiten, was sich im Bild gut bestätigt. Wichtig ist hier nur die Verbreiterung der Kante bei der Farbkamera, woraus sich eine größere "effektive Pixelgröße" als bei der monochromen Kamera ergibt. Der hier vorliegende Faktor von etwa 1,3 hängt von der Lage der Kante zum Pixelraster der Kamera ab, und verringert die Bildschärfe entsprechend. (Bei Verwendung sehr schmalbandiger Farbfilter kann sich dieser Faktor auf maximal 2 erhöhen, wenn nur die Blauen oder nur die roten Pixel angesprochen werden). Beachten wir nun auch noch den erheblichen Verlust an Lichtstärke durch die Filter der Bayer-Maske, so sprechen folgende Punkte gegen die Verwendung einer Farbkamera:

Wir werden also für die Mondfotografie keine Farbkamera verwenden. Anders liegt der Fall bei der Planetenfotografie, weil dort auf Farbe nicht verzichtet werden kann. Trotz der oben aufgezeigten Nachteile können mit Farbkameras schöne Bilder produziert werden, wie wir an Beispielen weiter unten sehen werden. Wer allerdings auf beste Bildschärfe und beste Farbdarstellung angewiesen ist (das sind speziell die Nutzer kleiner Optiken), der muss zu einer Kombination von monochromer Kamera wie z.B. der DMK21 (für die Helligkeitswerte) und Farbkamera wie der DBK21 (für die Farbwerte) greifen, oder relativ aufwändig und für Einsteiger nicht ganz einfach mit einer monochromen Kamera durch Farbfilter (z.B. rot, grün, blau) drei Bilder machen, und diese im Computer zu einem RGB-Farbbild verarbeiten. Einige Information dazu folgt weiter unten!

 

 

CCD oder CMOS? Auf dem Markt befinden sich in wachsendem Maße Kameras die statt den teuren klassischen CCD-Sensoren CMOS-Sensoren verwenden. In professionellen Kameras zeigt dieser Sensor-Typ auch ganz hervorragende Eigenschaften, dabei sind diese Sensoren mit hohem Aufwand entwickelte Spezialteile, die dem allgemeinen Markt natürlich aus Konkurrenzgründen nicht immer zur Verfügung stehen. In den preiswerten Kameras für Astronomie werden gelegentlich noch Sensoren verbaut, die nicht die Qualität eines CCD-Chips erreichen. Das Bild unten zeigt den Vergleich zwischen einem solchen einfachen CMOS-Sensor und einem entsprechenden CCD-Sensor unter identischen Aufnahmebedingungen. Das soll nun keinesfalls bedeuten, dass alle angebotenen astronomischen CMOS Kameras problematisch sind, ab 2017 sind solche wenig brauchbaren Versionen weitgehend vom Markt verschwunden.

 

 

Es gibt ein große Zahl CMOS Kameras hervorragender Qualität, die ab etwa 2017 sogar eine sehr ernste Konkurrenz zu CCD-Kameras geworden sind.  Besonders interessant sind dabei Kameras mit sehr kleinen 2,2 bis 3,7µ Pixel. Mit 2,2-3,7 Mikrometern Pixelgröße kann man zum Beispiel bei den verbreiteten f10 (SC) Teleskopen bei hochauflösenden Fotos von Mond/Planetenauf auf eine Brennweitenverlängerung mit einer zusätzlichen Barlow-Linse verzichten, was sehr von Vorteil ist. Wir haben eine TIS DMK 72AUC02 Kamera mit einem solchen Sensor beschafft, und damit das CMOS-Bild  unten links sowie zum Vergleich das Bild einer TIS DMK41 CCD-Kamera unten rechts durch Überlagerung von jeweils 100 Einzelbildern eines Videos erstellt. Die Bilder zeigen einen kleinen Teil einer weit entfernten Straßenlaterne aufgenommen mit einem ETX-Teleskop durch eine doppelte Fensterverglasung hindurch. Sie sind daher nicht als Schärfetest gedacht, sondern zum Vergleich der Lichtempfindlichkeit. Für exakt gleichen Abbildungsmaßstab wurde die Brennweite des Teleskops bei der CMOS-Kamera halbiert, und das DMK41-Bild noch um den Faktor 1,17 nachvergrößert. Hätte man die Nachvergößerung optisch durchgeführt, hätte dass zu einer Belichtungszeit von 1/8s (statt 1/11s) geführt. Vergleicht man die Zeiten 1/24s mit der so korrigierten Zeit 1/8s, so erkennt man einen Faktor 3 zu Gunsten der CMOS-Kamera. Die Pixel der CMOS-Kamera sind zwar kaum empfindlicher als die Pixel der CCD-Kamera, aber durch das wegen der kürzeren Brennweite viel hellere Bild auf dem CMOS-Chip erreicht man am Teleskop letztlich einen kräftigen Gewinn an Empfindlichkeit gegenüber der bisherigen Mond-Referenzkamera DMK41.

 

 

Bedenkt man dabei, dass die CMOS-Kamera mit 2592x1944 Pixel auch noch einen riesigen Sensor hat, stellt sich also die Frage: Sofort Kamera wechseln? Leider hat der geprüfte CMOS-Sensor (wie viele CMOS-Kameras) einen "rollenden" Verschluss (Rolling Shutter) der nicht alle Pixel auf einmal belichtet, sondern zeilenweise zeitlich versetzt. Das führt bei bewegten Bildern zu Verzerrungen (Rolling Shutter Effekt). Dieser RS-Effekt wirkt um so stärker je größer die Bildhöhe und je kleiner die Bildrate (fps) eines Videos ist. Für großflächige Mondaufnahmen ist die Kamera daher nur beschränkt brauchbar wenn das Teleskop das  Bild fest am Ort hält, und keine starken großflächigen Bewegungen durch Luftunruhe auftreten. Bei hoher Framerate (fps) durch Auswahl eines kleinen Bildfelds (ROI-Funktion) tritt der Rolling Shutter Effekt hingegen in den Hintergrund, und erlaubt die Fotografie von Planeten. Neue CMOS Versionen haben zur Vermeidung des  RS-Effekts einen globalen Verschluss (Global Shutter), und sind dann für CCD-Kameras eine ernste Konkurrenz. 2017 gab es bereits solche Kameras mit 3,45µ Pixel (leider noch nicht mit 2,2µ), die sich neben der Planetenfotografie bestens auch für großflächige Mondfotografie eignen.  Dennoch sind CCD Kameras eventuell noch interessant, wenn es um hohe Empfindlichkeit im unsichtbaren Infrarot geht. Beispiel hierfür sind die TIS 21er Kameras mit den 618er CCD´s von Sony. Die Kameras haben im gesamten Bereich eine hohe Lichtempfindlichkeit, besonders jedoch im Infrarot. Das ist für Aufnahmen bei unruhiger Luft ein großer Vorteil, weil man dann das IrRGB-Verfahren (siehe auch weiter unten) nutzen kann, um noch ausreichend gute Bilder zu bekommen. Wir haben einen ausführlichen Test dieser Kameras im Vergleich zu den Vorgänger-Versionen in "Sterne und Weltraum" Heft 12/2011 veröffentlicht. Der Bericht stand zumindest zeitweise in mäßiger Qualität an dieser Stelle zur Verfügung. Dabei handelt es sich um ein PDF, also bitte eine Weile Geduld, bis es geladen ist. Ebenfalls in reduzierter Qualität steht auch noch ein älterer Bericht aus Heft 6/2008 als PDF zur Verfügung.

 

Schnittstelle zum PC: Natürlich werden wir möglichst zu einer Kamera greifen, die die Daten digital und ohne Komprimierung an den PC überträgt. Ob der Anschluss über USB,  Firewire oder Netzwerk (GigE) erfolgt, ist prinzipiell egal. Analoge Kameras mit Grabbern (siehe Mars  TOU-Cam Bild unten) und eigentlich auch Firewire sind nicht mehr Stand der Technik.  Neuere Kameras verwenden USB 3.0 um die bei hoher Framerate und Pixelzahl erforderliche Datenrate zu erreichen, die Leitungslänge ist aber auch mit aktiven Kabeln auf 5-15m begrenzt. Die GigE Schnittstelle ermöglicht bei deutlich geringerer Datenrate sensationelle Leitungslängen bis 100m. Dabei läuft die Stromversorgung oft getrennt, und die Kameras haben wegen der kräftigen erforderlichen Leitungstreiber gelegentlich eine erhöhte Leistungsaufnahme (Erwärmung der Kamera).

 

Fazit Kamerawahl: Ein Nachfolger der bewährten Imaging Source DMK 41 Mondkamera ist eigentlich nicht erforderlich, die 41er ist mit ihren 4,6µ Pixel in Verbindung mit einer Barlow zur Nachvergrößerung am Teleskop immer noch ein guter Tipp. Bei noch größeren Sensoren besteht die Gefahr dass es mit der Schärfe am Bildrand schon Probleme geben kann, wenn das Bildfeld des Teleskops nicht absolut eben ist. Bei Neuanschaffung sind moderne CMOS-Kameras wie zum Beispiel die Imaging Source DMK 33UX265 bzw. 252 mit Gobal Shutter und 3,45µ Pixel inzwischen den CCD Kameras bei Mondfotografie ebenbürtig oder sogar überlegen. Wer nur kleinere Flächen aufnehmen will, um daraus Mosaike zu fertigen, kann alternativ preiswerte CMOS-Kameras (auch mit Rolling Shutter) verwenden, wie sie ab 2017 in großer Zahl für die Planetenfotografie angeboten werden. Wer allerdings bei besten Bedingungen und bester Optik bei Fotos die theoretische Grenze der Auflösung (s. weiter oben) anstrebt, sollte unbedingt zu einer Kamera mit Global Shutter greifen.

 

Für die Planetenfotografie reichen Kameras mit wenigen Pixel. Dabei ist es weitgehend egal ob CCD, CMOS, rolling oder global Shutter verwendet wird. Die Kamera wird normalerweise eine moderne USB3.0 CMOS Version mit etwa 1MP Sensor und einer hohen möglichen Bildrate (fps) sowie höchster Lichtempfindlichkeit sein. Bleibt also nur noch die schon oben diskutierte Frage ob monochrom oder farbig, oder eine  Kombination beider Kameras, was wiederum vom erstrebten Einsatz abhängt. Die komplizierteste Methode kommt mit einer s/w-Kamera aus. Man erzeugt drei Videos mit vorgeschalteten RGB Farbfiltern, und setzt die drei s/w Ergebnisbilder dann zu einem Farbbild zusammen. Einfacher ist die Verwendung von einer s/w und einer Farbkamera für Luminanzbild und Farbinformation. Die Farbinformation verwandelt dann am Comuter das s/w Luminanzbild in ein Farbbild. Dabei spielt die größere Unschärfe der Farbkamera keine Rolle, weil das Auge nur die Schärfe aus dem Luminanzbild sieht. Ein Beispiel für ein solches Bild gibt es hier, die Farbe stammt von einer DBK21, die Luminanz lieferte eine DMK21 im unsichtbaren IR, was weniger durch Luftunruhe gestört ist als sichtbares Licht. Weitere Info hierrzu gibt es weiter unten. Inzwischen gibt es neben der DBK21 eine unüberschaubare Menge guter Farbkameras (wie zum Beispiel die ASI 224 MC), die mit hoher Bildrate und kurzer Belichtungszeit so gute Farbvideos liefern, dass die damit gewonnenen Farbbilder ohne weitere Klimmzüge kaum schlechter sind als sehr aufwändig erzeugte RGB Aufnahmen mit monochromen Kameras. Zu diesem einfachsten aller Verfahren würden wir Einsteigern raten.  Hier ein Beispiel  mit der oben erwähnten TIS CMOS Kamera DFK 72AUC02.

 

WICHTIG: Alle Kameras müssen unbedingt absolut korrekt an die jeweilige Optik angepasst werden, sonst sind optimale Ergebnisse nicht möglich. Die zur Verwendung kommende Optik bestimmt also neben dem gewünschten Einsatzzweck auch, welche Kamera geeignet ist. Bitte daher unten den Abschnitt über Anpassung der Kamera an das Teleskop unbedingt sorgfältig lesen! Die dort berechneten Öffnungsverhältnisse sind für maximale Schärfe unbedingt einzuhalten. Alle noch größeren Öffnungsverhältnisse sind bei diesen Kameras „leere“ Vergrößerung, und führen zu längerer Belichtungszeit ohne Gewinn an Bildschärfe. Das bei leerer Vergrößerung die Bildkonturen gegenüber dem Rauschen vergröbert werden, ermöglicht (wie wir schon oben in den zwei Plato-Abbildungen gesehen haben) bei der späteren Bildverarbeitung eine bessere Trennung von Rauschen und Bildsignal, eine Zugabe von ca. 3  Stufen zum berechneten Öffnungsverhältnis kann also nicht schaden. Das gilt allerdings nur, wenn genügend Licht zur Verfügung steht, weil sonst die geringere Lichtstärke zusätzliches Rauschen generiert. Kleinere Öffnungsverhältnisse führen bei schlechtem Seeing und/oder schlechter Optik zu schärferen Bildern, die jedoch niemals die theoretisch mögliche Auflösung erreichen.


Konverter und Barlow: Zum System der Kamera gehört bei hoch auflösender Fotografie fast immer eine Brennweitenverlängerung der Optik. Da normale Okulare für parallelen Strahlenaustritt berechnet sind, ist Okularprojektion nur mit speziellen Projektionsokularen optimal, oder mit einem sehr teuren Flatfield-Konverter, wie er z.B. von der Firma Baader in perfekter Form angeboten wird. Normalerweise reicht jedoch eine gute Barlow völlig aus. Definitiv hervorragend ist die apochromatische zweifach-Barlow von Celestron, mit der sich je nach Abstand zum CCD-Chip Verlängerungen von 2 bis 3-fach erzeugen lassen. Selbst bei umgekehrtem Einfügen des demontierten Unterteils in den Strahlengang (um dichter an die Kamera zu kommen) funktioniert sie noch problemlos. Es gibt andere untadelige Barlows auf dem Markt, wie z.B. die Televue Powermate, aber auch preiswerte Teile können durchaus optimal funktionieren. Eine schlechte Barlow bedeutet allerdings das Ende aller Träume, man sollte nicht an der falschen Stelle sparen.

 

ADC Korrektor: Je näher man dem Horizont kommt, desto stärker wirkt die Atmosphäre wie ein Prisma, und spaltet das Licht des Objekts durch atmosphärische Refraktion/Dispersion in Farben auf. Erkennbar ist das an blauen/roten Farbrändern oben/unten am Planetenscheibchen. Korrigieren kann man das zumindest teilweise durch zerlegen des Bildes in die Farbkanäle RGB, und verschieben von Kanal B/R nach unten/oben. Alternativ kann man einen ADC (Atmospheric Dispersion Correktor) aus zwei gegeneinander verdrehbaren dünnen Prismen vor die Kamera setzen, um damit die Aufspaltung sehr wirksam rückgängig zu machen. Die Prismen müssen je nach Horizontnähe korrekt eingestellt und während der Sitzung nachjustiert werden. Sie haben einen zumindest geringfügigen negativen Einfluss auf die Abbildung des Teleskops. Gute Funktion ist auch nur bei Öffnungsverhältnissen von f20 oder mehr gegeben, was eine Montage zwischen Kamera und Barlow erforderlich macht. Da in den vergangenen Jahren der Einsatz eines ADC nicht unbedingt erforderlich war, haben wir keine Erfahrungen damit. Ab 2017 liegen die Planeten jedoch so dicht am Horizont, dass der Einsatz eines ADC immer wichtiger und fast zwingend wird. Die Kosten für nicht professionelle ADC liegen bei 150 bis 400 Euro, Einsteiger können es jedoch zunächst mit Justierung der Farbkanäle ohne ein solches Teil versuchen.

 

Filter: Zum System der Kamera gehört bei hoch auflösender Fotografie fast immer ein Filter. Der Einsatz von Filtern ist eine nicht ganz einfache Angelegenheit, zunächst gehen wir mal davon aus, dass zum Schutz des CCD-Chips ein Klarglas oder ein IR-Sperrfilter (oft auch in der Form eines IR/UV-Sperrfilters) vor die Kamera geschraubt wird. Das hier nur Filter bester Qualität angesagt sind, ist selbstverständlich. Fast alle unserer Mondbilder sind mit einem solchen Filter vor der Kamera entstanden. Unter bestimmten Bedingungen sind jedoch auch andere Filter sinnvoll oder sogar zwingend erforderlich. Dazu gibt es am Ende des Tutorials noch umfangreiche Auskünfte. Wer allerdings mit einem schlecht farbkorrigierten Refraktor oder bei hoher Luftunruhe arbeiten muss, kann ja auch schon jetzt mal den entsprechenden Abschnitt lesen.

 

Schutz und Reinigung: Zum Schutz des CCD vor Dreck und Staub gehört eigentlich unbedingt ein Filterglas vor die Öffnung. Ein Staubkorn auf dem CCD ist tödlich für das Bild, ein Staubkorn auf dem Filter einige Zentimeter davor ist hingegen völlig unproblematisch. Oft wird man ohnehin ein IR-Sperrfilter verwenden, das dann die Schutzfunktion übernimmt, im Zweifelsfall kauft man ein Filter aus Klarglas. Sollte nun doch einmal Staub auf den Chip gelangen, so entfernt man den mit einem sauberen Wattestäbchen in staubfreier Umgebung. Vorsicht: nicht zu fest mit dem Stäbchen auf das extrem dünne und zerbrechliche Fenster von dem CCD drücken! Eine Erfolgskontrolle ist möglich, indem man mit der Stecknadel ein feines Loch in die Schutzkappe des Kamerastutzens sticht, und die Kamera mit Abstand vor eine helle Lichtquelle hält (Lochkamera). Ist der Dreck zu fest, genügt oft das Anhauchen des Chips und sofortiges Abreiben des Feuchtigkeitsbeschlags mit dem Wattestäbchen, ganz leichtes Blasen ist auch erlaubt.....

 

Seitenanfang

 

 

Teil 3: Anpassung der CCD-Kamera bei Mond/Planetenbildern

 

Problem: Für jeden Fotografen stellt sich eine wichtige Frage: „Welches Öffnungsverhältnis muss ich wählen, um bei einer bestimmten CCD-Kamera die Auflösung der Optik voll zu nutzen“? Auch an dieser Stelle verzichte ich gezielt auf theoretischen Ansätze zur Herleitung einer Formel für die Kameraanpassung, weil es problematisch ist, dabei alle Einflüsse auf das Bild zu erfassen. Lediglich am Ende des Abschnitts gebe ich kurz einen Hinweis zu einem solchen Vorgehen und seinem Ergebnis. Wie also geht es ohne Theorie? In solchen Fällen fertigt der Physiker ein "Modell", leitet daraus Formeln her, und wenn diese Formeln in der Praxis den Vorgang gut beschreiben, war das Modell gut. Ich habe mir sogar zwei verschiedene Modelle ausgedacht, dass Beide das identische Ergebnis liefern ist erfreulich:

 

1. Modell mit Dawes-Kriterium: Zwischen zwei auf Grund der Auflösung gerade noch trennbaren hellen Punkten muss logischer Weise auf dem CCD-Chip noch ein weiterer Punkt liegen, sonst können sie im Bild nicht getrennt werden. Es muss also so sein, dass die beiden hellen Punkte auf zwei Pixel fallen, zwischen denen noch ein dritter Pixel liegt, das Bild muss also auf drei Pixel verteilt werden. Von Mitte zu Mitte der beiden äußeren Pixel ist das eine Strecke von 2x (dabei sei x die Breite eines Pixels). Die Brennweite F der Optik muss also so angepasst werden, dass der durch das Auflösungsvermögen vorgegebene kleinste Punktabstand genau auf diese Strecke 2x abgebildet wird. Bei unserer Optik berechnet sich F aus den für 30cm Öffnung und 550nm Lichtwellenlänge vorgegebenen 0,38“ des Dawes-Kriteriums, wie wir bereits in unserer Abhandlung über die Auflösung gezeigt haben.

 

Das führt für unsere Optik und Kamera mit der für kleine Winkel gültigen Formel  sin a = 2x/F   (a Auflösung in Grad, also 0,38/3600 sowie x = 0,0000046 Pixelraster des CCD in Metern) zu einer Brennweite F in Metern von F = 2x/(tan a) = 5,0m entsprechend einem Öffnungsverhältnis von f17. Verallgemeinert man diese Rechnung, so ergibt sich eine einfache „Merkregel“ für das Öffnungsverhältnis f = 3,6x, die dann für beliebige Optiken und s/w-Kameras bei 550nm Wellenlänge gültig ist (x in Mikrometern einsetzen).

 

2. Modell mit Airy-Disk: Wir können überlegen wie ein Airy-Disk auf einem CCD-Chip abgebildet wird, wenn man dem Bild eine gewisse Zahl von Pixel zuordnet. Die Abbildung unten zeigt das schematisch für Quadrate aus 2 x 2,  3 x 3 und 5 x 5 Pixeln. Bei zentraler Abbildung auf 2 x 2 Pixel werden alle Pixel gleichmäßig grau, eine feine Auflösung ist so nicht möglich. Die bei einer Abbildung auf 3 x 3 Pixel entstehenden „Kreuze“ können bei lang gezogenen Strukturen und Kanten zu stufigen und unsauberen Darstellungen führen. Erst beim Raster mit 5 x 5 Pixeln zeigt sich eine einigermaßen ordentliche kreisähnliche Wiedergabe. Den mathematische Ansatz für die drei Fälle liefert die Gleichsetzung des Durchmessers des Airy-Disks  2,5λf  (Für Profis: Das entspricht etwa der doppelten Halbwertsbreite der PSF) mit der Kantenlänge nx des Quadrats aus n Pixeln: 2,5λf = nx. Das führt für n = 2, n = 3 und n = 5 bei einer Wellenlänge von 550nm zu den unten in der Abbildung angegebenen Formeln für das Öffnungsverhältnis f.

 

 

Wie wir schon an anderer Stelle gesehen haben, setzt sich auch ein flächenhaftes Bild wegen des Superpositionsprinzips für Wellen aus der Überlagerung einzelner Bildpunkte (Airy-Disks) zusammen. Für beste Anpassung der Kamera ist es unabdingbar, dass diese kleinsten Strukturen eines Bildes auch korrekt abgebildet werden. Das führt zwingend zu den in der Abbildung oben rot eingerahmten Werten für das Öffnungsverhältnis f, wenn die Kamera optimal angepasst werden soll. Auch dieser Denkansatz führt also zu der schon zuvor hergeleitete Formel für beliebige Kameras und Optiken:  f = 3,6x.  Dabei ist für Farbkameras mit Bayer-Maske für x der effektive Pixeldurchmesser zu setzen, der nach unseren Untersuchungen der Kantenschärfe in SUW 6/2008 ca. 1,3mal größer ist, als der geometrische Wert von x.

 

Fazit: Zum Erreichen der theoretischen Auflösung ist neben einer guten, hervorragend kollimierten Optik auch gutes Seeing erforderlich. Früher waren wir der Meinung, das Seeing müsse perfekt sein. Neuere Beobachtungen zeigen erstaunlicher Weise aber, dass selbst bei keinesfalls perfekten Bedingungen sogar mit einer 30cm Optik beste Auflösung erreicht werden kann. Diese neue Erkenntnis führt zu folgender Empfehlung:

 

 

Mit kleineren f-Werten arbeiten? Die Anpassung einer Kamera lässt sich auch theoretisch über einen Ansatz mit der PSF herleiten. Vernachlässigt man dabei andere Einflüsse auf die Bilderzeugung (Rauschen, Smear, usw.), so erhält man die Formel f = 3x für etwas kleinere Öffnungsverhältnisse. Aus der Praxis heraus halten wir aber die mit unserem Modell berechneten f-Werte (f = 3,6x) immer dann für sinnvoll, wenn die Optik eine sehr gute Qualität hat, und die atmosphärischen Bedingungen stimmen. Durch die bei Flächen erforderliche korrekte Belichtungszeit wird der weniger helle Randbereich des Airy-Disks kaum sichtbar, was den Durchmesser verkleinert, die Überlegung in Richtung „noch bessere Auflösung“ verschiebt, und ein noch höheres Öffnungsverhältnis fordern würde. Auch um Fehler der Elektronik bei der Bildbearbeitung zu kompensieren ist ein gewisses "Oversampling" gelegentlich um so günstiger, je schlechter die Elektronik ist. Viele bekannte Mond/Planetenfotografen arbeiten daher mit noch größeren Werten, professionelle Gerät wie das Hubble-Teleskop müssen sich mit solchen Problemen nicht herumschlagen, und kommen daher auch mit kleinerem Öffnungsverhältnis aus.

Mann sollte auch beachten, dass die Auflösung in den betrachteten Grenzfällen nicht mehr linear mit dem Öffnungsverhältnis zusammenhängt. Eine Verdopplung von f führt daher nicht zur doppelten Auflösung, und wer bereit ist zu Gunsten von mehr Licht und Bildfläche auf geringfügig Auflösung zu verzichten, sollte mit geringeren Werten arbeiten (jedoch möglichst nicht die Werte im blauen Kasten oben unterschreiten).

Besitzer durchschnittlicher Optikqualität sollten vor allem auch bei schlechteren Bedingungen den f-Wert bis auf f = 2,2x verringern. Vorteile eines kleineren f-Werts sind das große Bildfeld und die kurze Belichtungszeit. Die Belichtungszeit spielt aber bei guten Bedingungen keine so entscheidende Rolle wie oft vermutet. Die Bildverarbeitung erfordert bei kleinem f-Wert eine Nachvergrößerung mittels Interpolation, und ist erheblich kritischer in Bezug auf unsaubere Kantendarstellung und Rauschen (Teile des Rauschens sind nicht durch kurze Belichtung vermeidbar, und lassen sich bei den bei kleinem f-Wert auftretenden  extrem feinen Details nicht mehr vom Nutzsignal trennen, siehe auch die beiden Plato-Bilder weiter oben). Wer mit diesen Einschränkungen leben will, kann auch mit kleineren f-Werten auf einfache Weise ganz erstaunliche Resultate erreichen, das zeigt auch ein Vergleich zweier Bilder, die zufällig mit der gleichen Optik und der gleichen Kamera zur selben Zeit an verschiedenen Orten aufgenommen wurden. Allerdings zeigt das mit f10 aufgenommene und Nachvergrößerte Bild schon sehr deutlich die Grenzen dieses Verfahrens.

Besonders bei der Planetenfotografie ist ein gewisses Oversampling zur Erzeugung sauberer Bilder sehr nützlich, daher arbeitet praktisch keiner der bekannten Planetenfotografen an kleineren Optiken mit kleinen f-Werten, sondern mit Werten die sogar noch oberhalb der von uns empfohlenen Werten liegen. Ein gutes Beispiel ist die für die Größe der Optik von nur 20cm Öffnung absolut erstklassige Jupiter-Aufnahme von Torsten Hansen. Seine Kamera ist nach unserer Rechnung bereits bei f20 ordentlich angepasst, das Bild entstand aber bei f33, und zeigt deutlich die Überlegenheit größerer Öffnungsverhältnisse bei guten Bedingungen. Mit einem Öffnungsverhältnis von f10 wäre der Mond Ganymed flächenmäßig 10mal kleiner gewesen, und hätte keine definierten Strukturen mehr zeigen können. Auch hätte man feine Rauschanteile bei f10 nicht mehr aus dem Bild  entfernen können.

Wie präzise unsere Rechnungen zur Anpassung sind zeigt auch ein Bild, das zum Testen eines Schärfungsfilters bearbeitet wurde. Dieses Bild zeigt viele kleine Krater, die sich im Maßstab 1:1 nur über eine Länge von vier Pixel erstrecken. Würde man das Bild statt mit dem Öffnungsverhältnis f20 mit f10 aufnehmen, so wären diese Krater auf eine Länge von 2 Pixel abzubilden, was natürlich unmöglich ist. Noch deutlicher wird das bei der Zahl der beteiligten Pixel, bei f20 sind das bis 4x4 = 16, bei f10 nur maximal 2x2 = 4. Ein Kraterbild mit 4 Pixeln ist im Gegensatz zu einem Bild mit 16 Pixeln nicht mehr denkbar, und würde allenfalls im Zuge der bei f10 unvermeidlichen Bildvergrößerung zu einer durch Interpolation erzeugten künstlichen kraterähnlichen Struktur. Wer also mit einer sehr guten Optik bei sehr guten Bedingungen optimale Bilder (speziell von Planeten) aufnehmen will, sei also ausdrücklich vor den gelegentlich propagierten zu kleinen Öffnungsverhältnissen gewarnt!


Seitenanfang

 

 
Teil 4: Vorbereitung und Durchführung einer Aufnahme.


Kollonimation: Für die hoch auflösende Fotografie ist eine absolut präzise und korrekte Kollimation (Justage) der Optik unerlässlich. Da nun bei fast allen Teleskopen der Massenfertigung die Mechanik nicht optimal ausgeführt ist, gibt es Probleme. Bei einem SC, bei dem das Blendrohr (auf dem der Spiegel zur Fokussierung verschoben wird) nicht ganz parallel zur optischen Achse steht, verschiebt sich der Spiegel beim Umfokussieren von der visuellen in die fotografische Position seitlich gegenüber der Achse, was unvermeidlich zur Dekollinmation führt. Um eine ständige neue Kollimation zu vermeiden, sollte man durch entsprechende Verlängerungshülsen daher die Kamera so befestigen, dass nur ein minimales Nachfokussieren aus der visuellen Position heraus nötig ist. Es kann nicht oft genug gesagt werden: Schon der minimalste Fehler bei der Kollimation macht alle Hoffnungen auf ein hoch auflösendes Bild zunichte!

Extrem wichtig: Wir kollimieren zunächst ganz "normal" durch Zentrierung  der intra/extrafokalen Bilder. Dann kommt aber eine ganz wichtige Übung die man auf jeden Fall absolut korrekt ausführen sollte, wenn die Optik auch nur die geringsten nichtsphärischen Bildfehler hat. Nichtsphärische Bildfehler führen bei Luftunruhe dazu, dass die  Lichtausbrüche am kollimierten fokalen Bild nicht gleichmäßig in allen Richtungen verlaufen, sondern eine Vorzugsrichtung haben. Nehmen wir mal an, die durch die Luftunruhe verursachten Lichtausbrüche erfolgen bevorzugt nach rechts. Dann wird später bei der Überlagerung der einzelnen Frames des Videos kein runder Fleck entstehen, sondern ein nach rechts verlängertes Oval. Diese strichförmige Verformung erfolgt an jedem einzelnen Punkt des Bildes, und führt zu einem extrem unschönen Aussehen des sonst sehr scharfen Bildes, das sich viele Fotografen nicht erklären können. Um diesen extrem ärgerlichen Fehler zu vermindern, geht man wie folgt vor: Man beobachtet das Bild eines nicht zu hellen Sterns am Monitor bei ganz leichter Luftunruhe. Bei möglichst genauer Fokussierung (des schon wie üblich kollimierten Teleskops) sollten die durch die Luftunruhe bedingten "Ausreißer" am fokalen Bild völlig symmetrisch auf alle Richtungen verteilt sein! Ist das  nicht der Fall, so muss man die Kollimation so korrigieren, das dieser Zustand möglichst genau eintritt. Anderenfalls gibt es später die erwähnten Probleme, die paradoxer Weise gerade bei scharfen Bildern besonders unangenehm auffallen.


Temperaturausgleich: Ein ganz erhebliches Problem kann ein mangelnder Temperaturausgleich in der Optik sein. Zur Überprüfung schaut man auf das hoch vergrößerte, defokussierte Sternbild, in dessen Ringen auch feinste Strömungen im Tubus z.B. als vertikale Linien sichtbar werden. Die Erzeugung hoch auflösender Bilder wird schon durch geringste Strömungen erheblich gestört, weil feinste Details in den Bildern verzerrt werden. Auch in der strömungsfreien Optik können sich keilförmige „Kaltluftseen“ über dem Spiegel bilden, die wie ein Prisma wirken, und lineare Verzerrungen hervorrufen. Wie man diese Fehler beheben kann (Lüfter im SC, Isolierung des Tubus) kann man sicher im Internet recherchieren, wir habe da noch keine Erfahrungen, und werfen zu stark belastete Videos vorerst einfach weg.


Das Seeing: Bei der hoch auflösenden Fotografie sind gute Bedingungen unabdingbare Voraussetzung. Wir stellen unseren Tubus rechtzeitig zum Auskühlen ins Freie, aufgebaut wird jedoch erst, wenn die Beobachtung mit einer kleinen Optik eine Chance auf gutes Seeing zeigt. Steht das Objekt nicht hoch genug am Himmel, so verzichten wir ganz. Zu den Problemen mit dem Seeing kommt dann noch die atmosphärische Refraktion (die Lufthülle wirkt wie ein Prisma), die das Bild des Mondes ganz leicht zu einem Spektrum auseinander zieht, was sich bei einer monochromen Aufnahme ohne Filter nicht korrigieren lässt. Etliche Fotografen verwenden daher (und das gilt auch für die Planetenfotografie) Farbfilter (Grün, Rot, IRpass) um die Refraktion zu korrigieren, und den Einfluss des Seeings auf das Bild zu verringern (lange Wellenlängen werden von der Luftunruhe nicht so stark beeinträchtigt, wie kurze Wellenlängen). Das verlängert allerdings die Belichtungszeit, was eher unerwünscht ist. Man sollte diese durchaus Erfolg versprechende Methode unbedingt mal ausprobieren, Genaueres siehe im Nachtrag zu diesem Tutorial. Noch ein wichtiger Tipp: Die Praxis hat gezeigt, dass es in der Dämmerung oft eine kurze Phase sehr ruhiger Luft gibt, bei der sehr gute Bilder gewonnen werden können, rechtzeitiges Anfangen kann sich also lohnen! Ist das Seeing bezüglich der hohen Auflösung grenzwertig, so probiert man es dennoch: Häufiger als man denkt lassen sich erstaunlicher Weise die Videos gut bearbeiten, obwohl die Luft nicht ganz ruhig war, das Gegenteil kann allerdings leider auch eintreten! Eine kleine Hilfe bei der Beurteilung des Seeings könnte so aussehen: Starks "Wabern" und Verzerrungen im Bild müssen noch nicht unbedingt bedeuten dass man chancenlos ist, es ist aber unabdingbare Voraussetzung für ein ordentliches Ergebnis, dass wenigstens blickweise das Bild auch mal ganz ordentlich scharf aussieht. Ist das nicht der Fall, so gibt es kein ordentliches Ergebnis, auch dann nicht, wenn das Bild sonst relativ ruhig erscheint....

 

Die Montierung: So banal es klingt, es könnte dennoch wichtig sein: Die Montierung sollte immer in Deklination und Rektaszension so ausbalanciert sein, dass ein geringer Zug in einer Richtung übrig bleibt. Tut man das nicht (also bei 100% Ausbalancierung), so könnte bei einer sehr leichtgängigen Montierung schon der geringste Wind die Optik um den Betrag des fast immer vorhandenen Lagerspiels hin und her bewegen, was sicher nicht erwünscht ist. Bei Mondaufnahmen ist es sinnvoll, die Nachführgeschwindigkeit dem Mondlauf anzupassen, falls die Elektronik das erlaubt. Wenn man bei Planeten mit der Ausschnittsfunktion der Kamera nur den ganz engen Bereich um den Planeten herum mit aufnimmt, ist es auch sinnvoll den Schneckenfehler der Montierung auszugleichen, falls vorhanden nutze man also die entsprechende Funktion der Elektronik! Je genauer die Montierung polar ausgerichtet ist, desto leichter gelingt die Aufnahme. Selbst bei unserer uralten, klapprigen Montierung bleibt dann ein Planet für mindestens 10 Minuten exakt in der Bildmitte, und die Handbox muss nicht zur ständigen Korrektur eingesetzt werden. So gelingen dann auch Videos, die später vom Computer ohne Probleme zentriert und gemittelt werden können.


Das Fokussieren: Vor der Aufnahme sollte man sehr präzise fokussieren, und die Einstellung des Fokus immer wieder neu machen, man läuft sonst Gefahr, dass alle Videos leicht defokussiert und wertlos sind! Beim Fokussieren ist nicht nur auf die  Schärfe zu achten, sondern auch auf minimale Unruhe im Bild. Oft ergibt der Punkt minimaler Unruhe ein besseres Kriterium für die richtige Fokussierung als die Schärfe selbst. Stellt man später ungleichmäßige Schärfe in den Bildern fest, so sollte man die Kollimation überprüfen, eventuell steht die Bildebene nicht senkrecht zur Achse der Kamera. Auch die modernen Crayford-Auszüge können die Ursache sein. Wir hatten schon zwei solcher Auszüge, bei denen der bewegliche Teil leicht schief eingebaut war, und auch nicht justiert werden konnte. Zur Überprüfung klemmt man den ganzen Auszug in eine große Schublehre, oder legt auf den auf einer ebenen Fläche stehenden Auszug eine Wasserwaage. Schon geringste Fehler sind bei hoch auflösender Fotografie tödlich, und man sollte das Teil dem Händler zum Tausch überlassen!


Einstellen der Software: Das ist ein weites Feld, und kann hier nicht erschöpfend dargestellt werden. Die Bezeichnungen der Regler und die Funktion unterscheiden sich auch je nach verwendeter Kamerasoftware. Selbst bei identischer Software können Regler je nach angeschlossener Kamera unterschiedlich arbeiten, das ist z.B. bei den Imaging Soruce Kameras der Fall, je nachdem ob die Kameras Firewire oder USB nutzen. Die zu den TIS-Kameras gelieferte Software IC Capture ist aber einfach und intuitiv zu nutzen, zusätzliche Ausführungen haben wir in unserem TIS-Kameratest in SuW 6/2008 gemacht, der hier als PDF zur Verfügung steht. Einige prinzipielle Anmerkungen die mehr oder weniger für alle Video-Kameras zutreffen, scheinen aber dennoch unbedingt erforderlich zu sein. Gamma, Gain und Belichtungszeit sollten zwar prinzipiell möglichst immer so gewählt werden, dass der volle Bereich des Histogramms (bei IC-Capture einblendbar) für den interessierenden Bereich des Bildsignals genutzt wird, aber man sollte  dabei folgende Hinweise beachten:

Nachträgliche Gamma-Korrektur? Eine nachträgliche Korrektur des Gammawerts bei der Bildverarbeitung ist möglich, wenn die Gammaregelung der Kamera erst hinter dem AD-Wandler einsetzt, und das Bildmaterial mit mindestens 16-Bit verarbeitet wird. Da wir nicht wissen ob die Gammaregelung bereits beim Digitalisieren eine Rolle spielt, und auch die Verarbeitungssoftware (Registax, Giotto, Avistack) definitiv Referenzpunkte etc. in kontrastreichen Bildern besser findet als in "flauen" mit hohem Gamma aufgenommenen Videos, stellen wir den Gammawert schon bei der Aufnahme sorgfältig und optimal ein.

 


Seitenanfang


 
Teil 5: Normale Bildverarbeitung

Problembeschreibung: Da dieser Text auch für Anfänger gedacht ist, kurz einige prinzipielle Erläuterungen. Mondbilder werden durch die Luftunruhe (Seeing) fast immer unscharf und verzerrt. Schärfe und Verzerrung ändern sich zeitlich sehr schnell, es gibt auch Momente scharfer und unverzerrter Abbildung. Leider betrifft das aber speziell bei Mondbildern immer nur einen kleinen Teil des Bildes, das Bild zerfällt in kleine Bereiche, die nie alle zusammen gleichzeitig gut abgebildet werden. Abhilfe schafft die Verarbeitung und Auswertung vieler Bilder eines Video-Films mit dem Computer in doppelter Hinsicht: Erstens wird eine große Zahl von Bildern ausgewertet, dabei addiert  sich die unvollständige Information der einzelnen unscharfen Bilder zu einem Bild mit hohem Informationsgehalt. Gleichzeitig reduziert  sich das in digitalen Bildern unvermeidliche Rauschen um die Wurzel aus der Zahl der Bilder. Verarbeite ich 900 Bilder, so sinkt das Rauschen also um einen Faktor 30. Erst bei reduziertem Rauschen ist es dann möglich, einen effektiven Filter zur Bildschärfung zu verwenden.  Zweitens können Programme zur Erstellung von Mondbildern viele kleine Bereiche der Bilder unabhängig voneinander bearbeiten, und so den Schärfeverlusten und Verzerrungen durch schlechtes Seeing entgegenwirken. Für diese Art der Auswertung stehen mehrere Programme zur Verfügung, die mit leichten Abwandlungen nach dem gleichen Prinzip arbeiten, das im Folgenden auf das Programm AviStack 1.74 zugeschnitten kurz erläutert wird. Wer sich nur für Planetenaufnahmen interessiert, sollte gleich unten bei den Programmen Avistack 2, AutoStakkert und Giotto weiterlesen, AviStack 1.74 empfehlen wir speziell für Mondfotos.

Prinzipieller Ablauf der Bearbeitung:  Zunächst untersucht der Rechner die Lage aller Bilder (Frames) des Videos, und verschiebt die einzelnen Frames so, dass sie möglichst genau übereinander liegen. Die so ausgerichteten Frames werden zu einem Mittenbild gemittelt. Dann unterteilt der Rechner das Mittenbild in viele kleine Teilgebiete, in der Mitte eines jeden Teilgebiets wird ein Referenzpunkt festgelegt. Ein Referenzpunkt ist eine möglichst auffällige Struktur, die der Rechner später ausreichend sicher in allen Video-Frames wieder finden sollte.

Nun wird jedes einzelne Video-Frame in Bereiche aufgeteilt, deren Bildqualität anhand bestimmter Kriterien bestimmt wird. Der Nutzer legt fest, welche Qualität er mindestens fordert. In Folge sucht der Rechner den Referenzpunkt eines der zuvor festgelegten Teilgebiete in allen Frames des Videos, die eine genügende Qualität haben, und zentriert alle Teilbilder anhand des Referenzpunktes für dieses Teilgebiet. Dieser Vorgang muss für jedes einzelne Teilgebiete erfolgen, ist er für alle Teilgebiete beendet, so werden die zentrierten Teilbilder aller Teilgebiete überlagert, und zum  fertigen Bild zusammengefügt. Einen Eindruck davon wie das abläuft gibt die folgende Zusammenstellung für die Bearbeitung eines kleinen Ausschnitts aus einem großen Mondbild:

Software AviStack 1.74: Ende 2008 kam mit AviStack eine neues Programm zur Verarbeitung von Mond und Planetenvideos in Gebrauch, das ebenfalls nach obigem Schema arbeitet.  Wir haben uns nach anfänglichem Abwarten dann Anfang 2009 dieses Programm näher angeschaut, und die ganze Serie neuer Mondbilder von 2009 mit diesem Programm erstellt. Es gibt eine Reihe von Parametern, die den Ablauf des Programms bestimmen, die wir in folgender Weise eingestellt haben:

1.Schritt: Zunächst setzen wir in einem ausgesucht guten Video-Frame zwei Ausrichtpunkte, die möglichst prägnant und weit voneinander entfernt sein sollten. Ausrichtgebiet 25; Suchradius 20; Glättungsfaktor 1. Dann starten wir die Ausrichtung der Video-Frames. Sollten am Ende einige besonders ausgeprägte Ausreißer im Ergebnisdiagramm erkennbar sein, so blenden wir diese mit dem Regler links am Bild aus, und berechnen ein neues Referenzbild.

2. Schritt: Zunächst setzen wir die Schwellenwerte für eventuelle schwarze Himmelpartien am Mondrand, die nicht mit Referenzpunkten belegt werden sollen. Danach erzeugen wir die Referenzpunkte (die die Zahl der Ausrichtgebiete bestimmen). Glättungsfaktor 20; Minimalabstand 30 (ein höherer Wert geht leider nicht einzustellen); Suchradius 5; Korrelationsflächen Radius 24; Frameausweitung 96 (was das ist, keine Ahnung). Jetzt speichern wir normalerweise die Daten für eine spätere Batch-Auswertung.

3. Schritt: Es folgt die Festlegung der Qualitätsgebietsgröße, wir wählen keinesfalls weniger als 80, und starten die Berechnung. In Folge setzen wir die Qualitätsschwelle auf 10 - 30 Prozent, und starten die Ausrichtung der Frames. Am Ende dann noch die Überlagerung der Frames und die Speicherung des fertigen Bildes. Auf die Schärfung mit Wavelets verzichten wir gerne. Die Ausrichtung der Frames erfordert längere Rechenzeit, weshalb sich für den 3. Schritt zumindest bei großen Bildern der Batch-Modus unter Verwendung der beim 2. Schritt gespeicherten Daten empfiehlt. Das fertige Bild muss am Ende noch mit einem geeigneten Schärfungsfilter geschärft werden, hierzu verwenden wir die Filter von Giotto (s. weiter unten bei "Giotto").

Bei der Bearbeitung liefert AviStack eine Menge von Diagrammen, die einen über die quantitativen Ergebnisse der Zwischenschritte informieren, und dem Nutzer dadurch die gezielte Anpassung von Parametern erleichtern. Das folgende Bild zeigt das Ergebnis einer anfänglichen Ausrichtung aller Frames eines Videos. Durch den roten Bereich kann der Anwender sehr weit verschobenen Frames von der Bearbeitung ausschließen, leider aber nur von oben her, ein kleiner Mangel dieser Funktion. Im gezeigten Beispiel wäre diese Funktion bei maximalen Verschiebungen von nur 4 Pixeln allerdings unnötig, eine starke Verschiebung sollte auch keinesfalls mit schlechter Qualität verwechselt werden. Die maximale Verschiebung ist übrigens ein Anhaltspunkt dafür, welcher Suchradius später mindesten verwenden sollte (ohne Korrektur  4, mit Korrektur 3). Das untere Diagramm zeigt, dass während der Aufnahme die x-Position (Rektaszension) ständig mit der Handbox korrigiert wurde, während das bei der geringen Drift in Deklination nicht erforderlich war.

Im Gegensatz zu Registax (Beschreibung unten) arbeitet AviStack bei korrekter Bedienung absolut stabil und ohne jeden Programmabsturz auch im Hintergrund und Batch-Modus. Zwischenzustände der Bearbeitung können jederzeit gespeichert werden, Schritte können jederzeit mit anderen Parametern wiederholt werden. Der Ablauf der Bearbeitung ist geradliniger und genauer vorgegeben als bei Registax, was grobe Fehlbedienung (wie bei Registax4 möglich) erschwert. Im Vergleich zu unserem bewährten Verfahren bei Registax rechnet AviStack deutlich länger, und die Ergebnisse waren bei unseren Bildern allenfalls geringfügig besser als bei unserem Registax-Verfahren. Wenn die für Version V2 avisierte vollständige Batchverarbeitung fertig ist, ist allerdings die Rechenzeit nicht mehr von Bedeutung, und AviStack würde zum unschlagbaren "Geheimtipp" für bequemes Arbeiten. Schwächen liegen besonders in der nach unseren Erfahrungen unnötig großen Zahl von Gebieten, in die das Bild automatisch zerlegt wird. Wo bei Registax von Hand und überprüfbar  festgelegt ca. 15 -25 Gebiete für ein 1280x1024 Bild erforderlich und ausreichend waren, erzeugt AviStack mehrere Tausend winzige Gebiete, was sich auch durch Einstellung der zugänglichen Parameter nicht unter 500  Gebiete drücken lässt. Erfreulicher Weise haben die Entwickler des Programms angekündigt, dass ab der Version V2 die Zahl der Referenzpunkte in einem weiteren Bereich verändert werden kann. Die zur Bearbeitung erforderlichen Referenzpunkte (einer in jedem Gebiet) werden auch in Bereiche gelegt, in denen wegen einer absolut glatten Bildfläche keinerlei für einen solchen Punkt erforderliche Struktur zu erkennen ist. Die Entwickler des Programms versichern aber, das bei notfalls etwas größer gewähltem Korrelationsflächenradius genügend Struktur vorhanden ist.

Verändert man zum Test wichtige Parameter der Bearbeitung die die Zahl der Gebiete, die Überlagerung und die Qualitätsprüfung beeinflussen, so ist im Endergebnis keine nennenswerter Unterschied bei unseren Bildern erkennbar. Auch das deutet darauf hin, dass zumindest für unsere Bilder bei der Zahl der Ausrichtgebiete ein unnötiger Aufwand getrieben wird, zumal Registax bei korrekter Bedienung ähnlich scharfe Ergebnisse mit bis zu 100mal(!) weniger Referenzpunkten erzeugt. Die Entwickler des Programms verweisen auf qualitativ schlechtes Video-Material, bei dessen Verarbeitung viele Referenzpunkte wichtiger werden. Bei der Zusammensetzung des Bildes aus den einzelnen Bearbeitungsgebieten kommt es gelegentlich zu Störungen in Form von zwei parallelen Linien an den Nahtstellen. Trotzdem überwiegen die Vorteile von AviStack, so dass wir  es bereits in der Version 1.74 Registax4 vorziehen. Während Registax durch Bewegung bei der Aufnahme verschobene Videos voll überlagert, und so ein deutlich größeres Bild liefert als dem Format der Kamera entspricht, ist dies bei AviStack in der getesteten Version leider nicht möglich, auch zeigen die Bilder von AviStack bei unruhigem Videomaterial einen relativ großen unscharfen Rand, weil keine randnahen Referenzpunkte gesetzt werden können. Dieser "Mangel" soll aber ebenfalls mit der Version V2 behoben werden. Mit Videos über 1GB Dateigröße kommt AviStack 1.74 im Gegendsatz zu Registax4 problemlos klar. Mit Bedauern haben wir festgestellt, dass auch AviStack  auf eine der bei Registax4 verwendeten ähnliche Wavelet-Schärfung setzt,  hoffentlich ergibt sich daraus eine im Vergleich zu Registax4 bessere Lösung. Ich würde es gerne sehen, wenn AviStack den unübertroffen guten Mexican Hat Filter von Giotto anbieten könnte! Das Programm ist für Mondbilder ein "Muss", für die Bearbeitung von Planetenbildern haben wir es nicht verwendet.

 

Software AviStack neu: Die neuen Versionen funktionieren im Prinzip ebenso wie die Vorgängerversion, die Aufmachung des Programms (Oberfläche) wurde aber stark verändert. Ein großer Vorteil ist der nun mögliche völlig automatische Ablauf des Programms. Wir haben erste Versuche mit AviStack 2 an Jupiter unternommen und dabei festgestellt, dass das Programm nicht unbedingt sehr einfach zu verwenden ist. Auch waren die Ergebnisse am Planeten nicht immer besser als bei einfacher zu verwendenden Programmen. Bei unseren Versuchen gab es in bestimmten Bereichen von Jupiter mit Avistack bessere Ergebnisse als mit Giotto oder AutoStakkert, besonders in genügend strukturierten randfernen Bereichen. Randnahe Bereiche in den Polkappen wurden oft von Giotto besser abgebildet, auch wenn bei Avistack automatisch erzeugte randnahe Referenzpunkte von Hand entfernt wurden. Speziell bei sehr gutem Videomaterial war es eigentlich egal, ob man mit Giotto, AutoStakkert oder Avistack gearbeitet hat, wobei der Aufwand bei Avistack am größten war. Dieser Aufwand lohnt sich vermutlich nur bei schlechtem Videomaterial, das wir aber ohnehin nicht bearbeiten. Obwohl wir mit dem Programm und den verschiedenen Parametern ausgiebig experimentiert haben, sind wir noch zu keinem endgültigen Ergebnis gekommen, die Ergebnisse waren von Fall zu Fall mal mit Avistack und mal mit Giotto oder AutoStakkert besser. Ob Avistack generell nun für die Bearbeitung von Planeten Vorteile bietet, die ein Einarbeiten in die speziell für Anfänger sehr komplizierte Materie rechtfertigen, bleibt um so offener, je besser das Videomaterial ist.

Ganz anders sieht das bei der Bearbeitung von Mondbildern aus. Hier ist AviStack wegen der Möglichkeit der vollen Automatisierung ein absolutes "Muss" wenn große Datenmengen verarbeitet werden sollen, und das rechtfertigt auch den erheblichen Aufwand zur Einarbeitung in das Programm. Schon Avistack 2 ermöglicht auch das Arbeiten mit einer geringen Zahl von Referenzpunkten (wichtig besonders bei sehr großen Bildern), und den Einschluss der Randgebiete bei einer Überlappung der Videoframes hervorgerufen durch Verschiebung während der Aufnahme. Da das Funktionsprinzip der neuen Versionen mit AviStack 1.74 prinzipiell identisch ist, haben wir die neuen Versionen hier nicht im Einzelnen beschrieben.

 

Software "AutoStakkert!": Dieses Programm empfehlen wir als Alternative zu Giotto für Planetenbilder. Es ist eines der am einfachsten zu verwendenden Programme, und arbeitet zudem extrem schnell. Wo andere Programme 40 Minuten benötigen, ist AutoStakkert auch schon mal in 5 Minuten fertig. Natürlich wird dabei ein wesentlich geringerer Aufwand betrieben als zum Beispiel bei Avistack 2, aber die Endergebnisse  werden bei Avistack 2 nur bei optimaler Einstellung aller Parameter eventuell etwas besser, und diese optimale Einstellung ist für ungeübte User nur sehr schwer und mühsam zu finden. Beim Arbeiten mit ungeeigneten Parametern arbeitet Avistack 2 sogar schlechter. Die Ergebnisse von AutoStakkert entsprechen in etwa denen von Giotto, ebenfalls einem nicht sehr kompliziert zu nutzenden Programm, aber AutoStakkert ist noch einfacher bedienbar und noch schneller. Leute die es schnell und unkompliziert mögen sollten für ihre Planeten-Videos  zu AutoStakkert oder Giotto greifen. Die neuen Versionen von AutoStakkert funktionieren gut, wir haben hier allerdings nur eine ältere Version beschrieben, die noch keine Farbvideos bearbeiten kann:

 

1. Open AVI Flies(s): öffnet das gewünschte Video (oder mehrere Videos). Die Box „Write Quality Data“ lässt man normalerweise ungecheckt, die Option „1,5xDrizzle“ brachte bei unseren Versuchen keinen Nutzen und bleibt ebenfalls ungecheckt. Mit „COG Treshold“ stellt man die Helligkeitsschwelle ein, von der an der Planet erkannt werden soll. Nur wenn der Planet extrem dunkel erscheint, sollte man einen Wert unter 20 wählen, nur wenn der Hintergrund nicht schwarz ist, ist ein Wert über 20 erforderlich. Mit den Schiebern für die Bildgröße wählt  man einen möglichst kleinen Ausschnitt, das  Programm arbeitet dann schneller.

 

2. Set Reference Rect:  Durch Klicken mit der Maus auf die linke obere Ecke und dann auf die rechte untere Ecke erzeugt  man ein Rechteck dessen Inhalt zum Überlagern der Bilder verwendet wird. Dieses Rechteck muss einen möglichst kontrastreichen Teil  des Bildes umschließen. Man kann auch bei Saturn den linken Teil der Ringe markieren, und in einem zweiten Durchlauf den rechten Teil, und die beiden Bilder dann später zusammenfügen. Will man nur einen Durchlauf, so markiert man den Kompletten Ring. Bei Jupiter haben wir den ganzen Planeten in das Rechteck gelegt. Man wählt dann „Edge“ oder „Gradient“ für das  Verfahren zur Qualitätsprüfung. Bei „Gradient“ wird der Kontrast im Innenbereich des gewählten Rechtecks zur Prüfung herangezogen, bei „Edge“ werden die Kanten des Planeten im ganzen Bild verwendet. Unscharfe Kantenbereiche am Planetenterminator können abgewählt werden. „Noise Robust“ erlaubt die Wahl der Rauschfilterung bei der Bearbeitung, je stärker das Rauschen, desto höher der Wert. Für  normale Qualität ist 3 eine gute Einstellung. Diese Filterung wird natürlich nicht(!) auf das Endergebnis angewendet, sondern ist nur bei der Bearbeitung aktiv. Die Option „Invariant to Brightness“ wird nicht erklärt, vermutlich ist das eine Funktion die die Qualitätsprüfung unabhängig von Helligkeitsschwankungen der Frames macht, wir haben das  nicht ausprobiert. Mit „View Random Frame“ kann ein anderer Frame des Videos als Referenz für die weitere  Bearbeitung gewählt werden, je besser der gewählte Frame, desto besser das Ergebnis. Leider ist dies Funktion rudimentär, weil man sich nur vorwärts durch das Video bewegen kann.

 

3. Process AVI: löst die Bearbeitung des (oder der) gewählten Videos aus. Dabei werden die vier Schritte Q/R/O/S ausgeführt, der letzte Schritt S ist das Stacken. Vor Auslösen der Bearbeitung wählt man bei „Output Images“ das  gewünschte  16-Bit Format TIF oder PNG, und  setzt in den Fenstern die gewünschte Zahl der gestackten Frames. Fenster mit 0 werden nicht aktiv. Beispiel: Setzt man bei Prozent die Werte 50,  75 und 100, so erhält man später drei Auswertungen mit jeweils 50%,  75% und 100% der Frames, wobei natürlich die qualitativ besten Frames verwendet werden.

Die  Optione „Normalize Brightness“ setzt automatisch den hellsten Punkt im Bild auf 70%  Helligkeit, die Option „Convolved Images“ erzeugt zu jedem Rohbild ein geschärftes Bild zur Kontrolle wie gut die Rohbilder sind. Wir haben diese Optionen nicht verwendet. „RAW stacks“ muss natürlich gewählt werden, damit das unbearbeitete Ergebnis gespeichert wird, und „Save in Folders“ ist sinnvoll, weil dann für jede der Prozenteinstellungen ein eigener Folder für das Ergebnis im Ursprungsverzeichnis des Videos angelegt wird. „Save ordered BMPs“sollte man keinesfalls verwenden, man findet sonst Tausende von Bildern auf der Festplatte. Im Feld „Prefix“ kann man noch einen Prefix für die Namen der zu speichernden Ergebnisse angeben.

Unter „Image Convolution Kernel“ kann man den zur  Schärfung verwendeten Kernel setzen, das ist  uninteressant, wenn man zum Schärfen andere Filter verwendet (Mexican Hat bei Giotto). Unter „Reference Frame“ setzt man Stack Size auf etwa 100, und verwendet den mitgelieferten  Reference Kernel („Load Reference Kernel“, und dann Doppelklick auf „ReferenceKernelDefault.afc“). Wir haben das sicherheitshalber so gemacht, weil es uns nicht ganz klar ist, ob der hier erzeugte Referenz Frame beim Stacken der Endergebnisse verwendet wird.

4. Castrator: Diese Programm ist ein "Zubehör" zu AutoStakkert, es ermöglicht die Vorbehandlung eines Videos in Bezug auf Bildausschnitt und Ausrichtung eines Planten im Video. Das bearbeitete Video kann dann platzsparend archiviert werden, und beschleunigt die Verarbeitung bei AutoStakkert und in anderen Programmen. Die Bedienung ist einfach, man sollte sich das Programm unbedingt mal ansehe. Es verkleinerte Y800 Videos der Imaging Source Kameras erheblich, speichert  diese aber eventuell nicht mehr im 24 Bit Format, was aber bei Schwarz-Weiß und einer Kamera mit nur 8 Bit Bildtiefe wohl kein Beinbruch ist.

 

Software Registax 4: Wir würden Avistack vorziehen, geben aber der Vollständigkeit halber einen Überblick. Bei der Bearbeitung von Mondvideos mit Registax ist unbedingt die Multipoint-Option zu nutzen, die das Bild in einzelne Teile zerlegt bearbeitet. Nur so kann die durch Seeing verursachte ungleichmäßige Schärfe ausgeglichen werden. Unsere Versuche haben gezeigt, dass viele Optionen von Registax die Bearbeitungszeit stark verlängern, und kaum Vorteile bringen. Wir verwenden bei Multipoint die einfache Version „Simple“, und das Filter „Gradient“ zur Qualitätskontrolle (processing area 512 pixel). Bei den Filteroptionen steht bei Gradient „Pixelradius 2“, das haben wir nicht verändert, im „multi align window“ ist der minimale Punktabstand auf 64 gesetzt. Wir arbeiten mit etwa 10 bis 25 Punkten in der großen DMK41-Aufnahme. Ganz zu Beginn ist es sinnvoll, aus dem Video ein möglichst gutes Bild als Vergleichsbild herauszusuchen, bevor man die Multi-Points festlegt. Beim Festlegen der MP verwenden wir die Boxengröße 128 und bei kleinen Kratern in ebenen Fächen auch mal 64. Am Ende sollte man die gewählten Multipoints speichern, damit sie zur Verfügung stehen, wenn ein Programmfehler einen zur erneuten Auswahl des Videos zwingt. Nach dem Alignment begrenzen wir die Zahl der Bilder (Limit) auf ca. 200 – 400, und führen die Optimierung („single run“ optimizer) aus. Danach wählen wir das Menü „Stack“, und setzen die Option „Feather“ auf ca. 7 Pixel (unscharfe Kante beim Überlagern der Bildteile), sowie die Option „expand to maximum imagesize“, und starten das Stacken. Nach dem Stacken sofort(!) das Bild speichern (!!keinesfalls darf zuvor der Modus der Wavelet-Filterung aufgerufen werden!!). Wer es unbedingt noch genauer will, kann nach dem Begrenzen mit „Limit“ noch ein neues Vergleichsbild aus den besten 50 Einzelbilden erstellen (create new reference) und leicht mit dem 2. Regler von Wavelet schärfen. Das geht sehr schnell und in wenigen Sekunden, schaden kann das nicht. Nach dem Optimieren könnte man noch den Stackgraph aufrufen, und für jeden Multipoint einzeln noch eine zusätzliche Qualitätsauswahl durchführen, bevor man das Stacken startet. Das geht ebenfalls recht schnell, und kann nicht schaden. Die Arbeit von Registax ist dann getan.

Software Registax neu: Registax 4 ist ein sehr nützliches aber nicht sehr ausgereiftes, fehlerhaftes Programm. Häufiger nerven Fehlfunktionen bei der Bedienung (wichtige Funktionen laufen aber glücklicherweise weitgehend korrekt), man findet aber schnell Wege die Fehler zu umgehen. Treten ernsthafte Probleme auf, so ist gelegentlich ein kompletter Neustart die beste Lösung um weitere Fehler zu vermeiden. Der Anfänger sieht sich mit einer unüberschaubaren Vielfalt von Funktionen und Parametern konfrontiert, deren Sinn und Nutzen sich nicht ohne weiteres erschließt oder sogar fragwürdig ist. Das sich dieser Zustand mit neuen Versionen bessert ist zu hoffen, aber nach ersten Eindrücken nicht gesichert. Wir verwenden daher AviStack.

Software Giotto 2.12: Dieses Programm ist sozusagen der "Urvater" der Software zur Verarbeitung von Videos zu fertigen Bildern. Giotto bietet daher noch nicht die Möglichkeit, ein Bild zur Eliminierung der Luftunruhe in Teilbereiche zu zerlegen, die dann getrennt bearbeitet werden. Es ist daher für Mondbilder nicht mehr erste Wahl. Giotto funktioniert aber bei der Erstellung von Planetenbildern hervorragend, und es besitzt ganz hervorragende Filter zum Schärfen. Wir verwenden daher Giotto für unsere Planetenbilder, und zum Schärfen der mit AviStack gewonnenen Mondaufnahmen.

Software Fitswork: Dieses Programm ist ein universell nutzbares Programm mit einer Unmenge von Möglichkeiten. Aus Zeitmangel haben wir nicht untersucht, welche der vielen interessanten Funktionen für die Mond/Planeten-Fotografie eventuell nutzbar sind, jedoch haben uns die Gauss-Schärfungsfilter von Fitswork interessiert. Schließlich ist die optimale Schärfung ein wichtiger (eventuell sogar der wichtigste) Vorgang bei der Erstellung hoch auflösender Bilder. Untersucht haben wir die Tauglichkeit speziell für die Mondfotografie mit unserer Kamera DMK41 (siehe Teil 6).

 

Software WinJUPOS: Oft ist es nicht möglich die gewünschte hohe Zahl von Frames in einem Video zu addieren, weil sich der Planet inzwischen zu weit gedreht hat. Es sei R: Entfernung zum Planeten in km; T: Rotationsperiode in Stunden; r: Radius des Planeten in km; t: Videolänge in Sekunden. Wenn man die Bahnbewegung von Erde und Planet vernachlässigt, dreht sich ein Äquatorpunkt des Planeten von der Erde aus gesehen etwa um den Winkel w = 360tr/TR Sekunden weiter. Beispiel: Setzt man für Jupiter in Opposition grob geschätzt R = 630.000.000km; T = 10h; r = 70.000km; t = 100s ein, so erhält man w = 0,4". Dieser Winkel tritt also bei allen Teleskopen als Schärfeverlust auf, wenn das Video 100s lang ist. Bei einem 10cm Refraktor ist das kein Problem, weil er ohnehin nur etwa 1,2" Auflösung hat. Kritisch ist das aber für ein 40cm Teleskop, dass selbst unter besten Bedingungen seine Auflösung von 0,3" dann nicht mehr voll nutzen kann.

Der Winkel w muss also möglichst kleiner oder gleich der Auflösung (Dawes-Kriterium) des Teleskops bleiben. Für ein Teleskop mit einer Öffnung von D Zentimetern folgt daraus für 550nm Wellenlänge die Forderung t = 0,0315TR/Dr für die maximale Videolänge. Für ein 30cm SC ergibt sich für Jupiter t = 94,5s als optimaler Kompromiss für die maximale Länge eines Videos, wenn man bei besten Bedingungen (Optikqualität/Seeing) hohe Auflösung erzielen will. Bei einer Marsopposition ergäbe sich mit einem Wert von etwa 626 Sekunden hingegen Entwarnung. Besitzer kleinerer Optiken können aufatmen, bei D = 10cm sind die Zeiten z.B. dreimal länger als in obigem Beispiel, bei Jupiter also schon fast 5 Minuten. Kann man in der berechneten Zeit keine ausreichende Zahl von Frames aufnehmen, muss man in direkter Folge mehrere Videos machen, die aus jedem Video erstellten Bilder mit einer speziellen Software am PC "derotieren", und dann erst überlagern. Hierzu eignet sich zum Beispiel die Software WinJUPOS, die im Internet kostenlos zur Verfügung steht. Sie ermöglicht die Verwertung von Bildern in einem Aufnahmefenster von gut 15 Minuten, und kann bei der Verbesserung der Bildschärfe einen erkennbaren  Beitrag liefern. Man kann genügend viele Videos aufnehmen um bei der Verarbeitung der Frames stark nach Qualität zu selektieren, und dennoch sehr viele gute Frames überlagern, was wiederum ein rauschfreies Schärfen des fertigen Bildes ermöglicht.

 

Die zuvor erstellte Formel arbeitet übrigens relativ gut. Unsere besten Jupiterbilder wurden mit 100s Videodauer aufgenommen hier ein Beispiel und zeigen in den schärfsten Bereichen eine Auflösung von 0,6". Das ist etwas schlechter als die nach dem für die Formel zu Grunde gelegten Dawes-Kriterium möglichen 0,38", aber weder das Seeing noch unsere Optik waren absolut ideal, das Video nutzte zudem die maximal zulässige Aufnahmezeit von 95s voll aus, und es wurden alle Frames ohne Selektion (also auch der Mist) verwendet.

 

Seitenanfang

 

 

Teil 6: Schärfen von Bildern

Problembeschreibung: Durch die zuvor beschriebene Überlagerung von sehr vielen Einzelbildern wird das Rauschen sehr wirkungsvoll weitgehend aus dem Ergebnis-Bild entfernt. Daher ist es nun möglich sehr effektive Filter zur Schärfung anzuwenden. In dem zunächst noch unscharf aussehenden Bild ist ja durch die Addition und Mittelung vieler Bilder auch die Bildinformation von vielen Bildern "versteckt", und wartet nur darauf sichtbar gemacht zu werden. Im Prinzip ist diese Information also vorhanden, mit Hexerei hat das Schärfen also nichts zu tun, auch wenn das manchmal angesichts der enormen Verbesserung des Bildes kaum zu glauben ist. Man kann sich das ganz stark vereinfacht so vorstellen: Durch die physikalischen Eigenschaften der Optik (Beugung etc.) und durch Einflüsse der Luftunruhe erscheint das Bild eines Punktes nicht als scharf begrenzter Punkt, sondern als kleine Scheibe, deren Helligkeit von der Mitte nach außen abnimmt. Diese Abnahme erfolgt z.B. in Form einer glockenförmigen Gausskurve, oder einer ähnlichen PSF (point spread function). Ist die Form dieser PSF genau bekannt, so ist es möglich mit dem Computer die verschmierten Bildpunkte in die ursprüngliche Form "zurück zu rechnen", was zu einer ernormen Verbesserung der Bildschärfe führt. Ein anderer Ansatz ist der Folgende: Analysiert man das Frequenzspektrum eines Bildes, so befinden sich die feinsten Details in den höchsten Frequenzen des Spektrums. Hebt man nun diese Frequenzen mit einem Hochpass an, so werden die feinsten Details im Bild verstärkt, das Bild wirkt schärfer.

Grenzen der Schärfung: Alle Schärfungsverfahren haben natürlich "Risiken und Nebenwirkungen". Ein auf der PSF basierendes Verfahren kann natürlich nur korrekt arbeiten, wenn die PSF genau bekannt ist. Das ist aber in der Praxis nie der Fall. Auch eine zu intensive Anwendung der Schärfungsalgorithmen über die Grenze von 100% Rückrechnung der Bildunschärfe hinaus bewirkt unangenehme "Artefakte" im Bild, also Strukturen die mit dem ursprünglichen Bildinhalt nur noch wenig zu tun haben. Bei den so genannten Wavelet-Filtern entstehen bei immer stärkerer Anwendung in wachsendem Maße "Strickmuster"-ähnliche Strukturen in glatten Flächen, aber auch die Schärfung ohne Wavelets ist keinesfalls (wie oft behauptet) weitgehend artefaktfrei: Bei übertriebener Anwendung entstehen auch hier massenhaft feine Bildstrukturen, die mit dem Originalbild wenig bis garnichts zu tun haben. "Ungefährliche" Artefakte wie die Ringe in den dunklen Schatten der Krater könnte man durchaus ohne gravierende Entstellung des Bildes entfernen, nicht so jedoch die unzähligen feinen Veränderungen bei zu starker Filterung. Hier ist der Anwender aufgerufen, im richtigen Moment Schluss zu machen! Das ist bei "schönen Bildern" lediglich Geschmackssache, bei wissenschaftlichen Aufnahmen jedoch eine sehr heikle Angelegenheit.

Schärfen mit Photoshop: Da viele Bildbearbeiter dieses Programm besitzen fragt man sich natürlich ob damit eine gute Schärfung von Astrobildern möglich ist. Zur Verfügung stehen die Filter "Unscharfe Maske" USM und der "Gaußsche Weichzeichner" GW. Letzteren muss man gleich im Zusammenhang mit der Schärfung erwähnen, weil er zwischen den einzelnen Anwendungen der Unscharfen Maske fast immer erforderlich ist. Gute Ergebnisse lassen sich nur erzielen, wenn die Bilder im 16-Bit Format vorliegen und in PS auch so bearbeitet werden können (alte Versionen können nur 8-Bit Format verarbeiten, das reicht zum ordentlichen Schärfen nicht aus).

Im Allgemeinen beginnt man mit einer kräftigen Schärfung mit USM, zum Beispiel Pixelradius 1, Schwelle 0, 500%. Diese Schärfung wendet man zweimal an. Das dann eventuell sichtbare Rauschen wird mit GW Radius 0,4 gemildert, dann erfolgt erneut eine USM mit einem etwas größeren Pixelradius und einer höheren Schwelle, zum Beispiel Radius 1,7  Schwelle 5  Stärke 350 Prozent. Diese Werte müssen je nach Bild auch völlig anders gewählt werden, auch Zahl und Reihenfolge der USM und GW muss verändert werden, eine nicht ganz einfache Angelegenheit. Ein Beispiel für eine Schärfung nach obigem Schema ist dieser Clavius.

Schärfen mit Registax4 und AviStack: Die Wavelet-Schärfung mit diesen Filtern ist recht einfach, experimentell findet man die für das vorliegende Bildmaterial optimale Einstellung der Filterebenen relativ schnell. Das Beseitigen von Restrauschen ist mit diesen Filtern durch negative Einstellung der unteren Bildebene möglich, geht aber nur auf Kosten der Bildschärfe bei feinsten Details. Je nach Rohmaterial liefern diese Filter ein sehr gutes aber auch weniger gutes Ergebnis, wir haben sie daher nicht weiter untersucht. Bei AviStack 1.74 sind die Filter noch experimentell, und die neuen Filter von Registax5 haben wir noch nicht ausprobiert. Warten wir also ab, was sich da später ergibt......

Schärfen mit Giotto: Fertige .fit-Bilder aus AviStack sind zwar aus unerfindlichen Gründen vertikal gespiegelt, sie lassen sich aber ohne Probleme in Giotto laden. Das von Registax4 gelieferte TIF-Bild ist aus unerfindlichen Gründen der Grünkanal einer Farbaufnahme, und muss in Photoshop etc. in ein Graustufenbild umgewandelt werden, das dann in Giotto geladen und dort geschärft wird. Übersichtsaufnahmen ohne Barlow oder sogar mit Reducer muss man ganz anders bearbeiten (das geht oft sogar mit dem Wavelet-Filter von Registax und AviStack ganz gut), als die hoch auflösenden Bilder. Die hoch auflösenden Bilder filtern wir alle mit Giottos Mexican Hat, zum Beispiel mit Form: Rechteck, Charakteristik: Quadrat, Rauschfilter: Rechteck. Die Einstellungen der Filtergröße muss man ausprobieren, aber der Rauschfilter sollte immer direkt unter dem Schärfungsfilter liegen, also z.B. 3/5 oder 5/7 oder 7/9. Wie stark man schärft ist eine kritische Angelegenheit, weil auf diese Weise Artefakte im Bild entstehen können. Bei wissenschaftlichen Aufnahmen sollte man die Option „Kritische Dämpfung“ aktivieren, das verhindert zuverlässig „Überschwinger“ bei der Schärfung. Spätestens(!) kurz bevor die ersten aus dem Bildrauschen hervorgehenden Artefakte in ebenen Flächen auftreten, ist Schluss! Allgemein gilt: Will man später noch ein professionelles Rauschfilter einsetzen, so darf etwas mehr geschärft werden, sonst eher weniger. Das in einigen Giotto-Versionen fertig geschärfte .tif-Bild ist übrigens aus unerfindlichen Gründen ein Negativ, und muss mit Photoshop etc. erst in ein Positiv umgewandelt werden. Mit Photoshop kann dann noch eine Randbeschneidung und eine leichte Tonwertkorrektur erfolgen, sowie ein Rahmen und Beschriftung eingefügt werden. Bei gutem Seeing und ordentlichen Videos war das dann schon die Endstation. Gelegentlich ist noch eine minimale Nachschärfung mit der Unscharfen Maske von Photoshop sinnvoll. Der Mexican Hat Filter arbeitet ganz hervorragend an fast allen Bildern, und ist daher unser absoluter Favorit.

 

Schärfen mit Fitswork 3.99: Fertige .fit-Bilder aus AviStack sind zwar aus unerfindlichen Gründen vertikal gespiegelt, sie können aber beim Einlesen in Fitswork umgedreht werden, wenn der entsprechende Menüpunkt gewählt wird. Zum Schärfen von Mondbildern sind primär die Gauss-Filter interessant, deren Funktion wir durch Anwendung auf bekannte Bilder und den Vergleich des Resultats mit früheren Ergebnissen anderer Filter untersucht haben. Für unsere Bilder war es sinnvoll eine iterative Gauss-Schärfung mit den Parametern Radius 1,5 bis 2 mit 10 bis 12 Iterationen bei ca. 100% Stärke mit einer normalen Gauss-Schärfung mit Radius 2 bei Schwelle 0 und Stärke 500% zu kombinieren. Nach dieser Vorarbeit haben wir mit Photoshop eine Unscharfe Maske angewendet mit Stärke 100%, Radius 1,4 und Schwelle 2, um den Schärfeeindruck zu verbessern.

 

In schwierigeren Fällen wie dem Musterbild wo z.B. wegen der sehr hellen Kraterränder mit hohem Gamma und geringem Kontrastumfang (mattes, kontrastarmes Bild) belichtet wurde, waren weitere Schritte erforderlich: Eventuell noch ein Unscharfe Maske mit Stärke 15%, Radius 250, Schwelle 0, um die schwache Struktur in Flächen zu verbessern, und dann noch eine Tonwertkorrektur zur Verbesserung der Strukturen speziell auch in sehr dunklen Gebieten, die im Musterbild sogar linear abnehmend (mit Hilfe einer Maske) über das Bild gelegt wurde. In Folge müssen nicht selten gröbere Artefakte der Schärfung aus dem Bild entfernt werden. Der Einsatz der Filter von Fitswork ist also nicht immer so schnell erledigt wie bei Giotto, das Ergebnis zeigt aber eine bessere Schärfung bei sehr kleinen Strukturen. Demgegenüber ist der Bildeindruck in der Fläche (speziell in dunklen Bereichen) bei kritischem Bildmaterial nur schwer auf einen ähnlich guten Stand wie bei Giotto zu bringen. Was bei einiger Mühe (speziell bei Fitswork war eine Nachbearbeitung erforderlich) in Etwa herauskommt, zeigen die folgenden Ausschnitte aus dem Musterbild:

 

 

Fazit: Die Schärfung ist wohl der wichtigste Schritt bei der  Erstellung von hoch auflösenden Bildern. Das Experimentieren mit Schärfungsfiltern ist daher von großer Bedeutung. Ohne uns genau festlegen zu wollen (dazu ist die Materie zu komplex) und ohne eine Empfehlung aussprechen zu wollen, listen wir hier die für unsere Mondbilder gültige Meinung auf, die sich noch ohne Berücksichtigung der endgültigen Filter von AviStack und Registax5 gebildet hat:

 

Seitenanfang



Teil 7: Bildverbesserung.


Professionelle Rauschfilter: Bei schlechteren Bedingungen gibt es einige Möglichkeit zur sehr effektiven Verbesserung des Bildes, zum Beispiel der Einsatz eines professionellen Rauchfilters. Ein solches Programm ist unbedenklich, weil es keine Artefakte schafft, im schlimmsten Fall werden aber im Bild vorhandene Strukturen „glattgebügelt“, was natürlich nicht der Sinn der Sache ist. Es ermöglicht z.B. das völlige Entfernen von starkem Rauschen in schwarzen Flächen bei gleichzeitiger Entfernung von minimalem Restrauschen in grauen Bereichen, oder die Beseitigung von winzigen Artefakten, die eventuell bei zu starkem Schärfen entstanden sind. Das alles erfolgt bei korrekter Bedienung praktisch ohne Verlust an wichtigen Details des Bildes. Bei uns kam gelegentlich eine ältere Version des Programms NeatImage Pro+ zum Einsatz. Die Angelegenheit ist nicht ganz einfach zu lernen, lohnt sich aber in jedem Fall! Hier nur ein kleiner Hinweis zum prinzipiellen Ablauf. Die Arbeit erfolgt in zwei Schritten:


Noch einen Hinweis zur Anwendung von professionellen Rauschfiltern, der auch für die Planetenfotografie gilt: Wer schon von Anfang an den Einsatz eines solchen Programms vorgesehen hat, sollte bei der Aufnahme eventuell ein etwas größeres Öffnungsverhältnis wählen, als nach unserer Formel aus SuW 6/08 für die optimale Anpassung der Kamera erforderlich ist. Damit erhöht sich wegen der geringeren Lichtstärke zwar das Rauschen, das dann aber mit einem professionellen Rauschfilter besser vom gröberen Bildsignal getrennt werden kann. Für Kameras mit ohnehin geringer Lichtempfindlichkeit ist diese Verfahren allerdings keinesfalls zu empfehlen! Auch bei der Schärfung des Bildes kann man etwas aggressiver verfahren, wenn später mit einem professionellen Rauschfilter nachgebessert wird.


Sonstige Bildverbesserung: Die ultimative Notbremse ist das Retouchieren. Bei wissenschaftlichen Aufnahmen ist das nur erlaubt, wenn eindeutig(!) erkannte Artefakte oder Fehler aus dem Bild entfernt werden können, ohne den Bildinhalt zu verfälschen, das machen professionelle Bildbearbeiter mit NASA-Aufnahmen gelegentlich auch. Für uns liegen die Hürden nicht so hoch: Bevor man ein mühsam erstelltes Bild wegwirft, könnte man z.B. eine von Registax eingefügte unsaubere Verbindung zweier MP-Bereiche mit Stempel oder dem Wischfinger bearbeiten, oder aus schwarzen Flächen in den Kratern Überschwinger der Schärfung entfernen. Retouchieren sollten aber auch wir nur, wenn eine Struktur eindeutig(!) als Artefakt erkannt ist, besser ist es jedoch darauf völlig zu verzichten, und nur beste Videos zu bearbeiten. Durch die Erstellung von Auswahlen (gegebenenfalls mit weichen Kanten), können bestimmte Bereiche des Bildes gezielt bearbeitet werden, es gibt eine Unmenge von Funktionen um ein Bild zu „verbessern“, unmöglich hier alle aufzuführen, die man jedoch nur sehr vorsichtig anwenden sollte. Wichtig ist folgende Regel:


Mehr Belichtungsspielraum: Bei Mondbilder tritt sehr oft der Fall ein, dass die Videokamera den extremen Helligkeitsunterschied z.B. zwischen dunklen Partien und hellen Kraterrändern nicht überbrücken kann. Das führt bei korrekter Belichtung der dunklen Bereiche zu einer krassen Überbelichtung der oft nur kleinen hellen Bereiche. Will man damit nicht leben, so muss man mit Gamma und Belichtungszeitwahl die Überbelichtung vermeiden. Das führt aber zu einer Unterbelichtung der dunklen Bereiche, die sich später bei der Bildbearbeitung kaum noch ausgleichen lässt. Ein Notbehelf ist eine Auswahl mit weicher Kante um die kleinen hellen Bereiche, um diese von der Tonwertkorrektur der dunklen Gebiete auszuschließen, wie wir es gelegentlich gemacht haben. Die einzige ordentliche Lösung wäre aber die Aufnahme zweier unterschiedlich belichteter Videos, die überbelichteten Teile (Krater etc.) können dann durch ordentlich belichtete Auswahlen aus dem kurzbelichteten Bild ersetzt werden. Ein Verfahren, dass bei Deepsky-Aufnahmen an der Tagesordnung ist.

 

Seitenanfang



Teil 8: Zusammenfassung der Ergebnisse.


Als Mitte 2007 die Idee aufkam, eine ordentliche Optik und eine gute Kamera zu beschaffen, war noch nicht abzusehen, wie mühsam das sein würde. Letztlich führte das zu unserem Kameratest in SuW Heft 6/2008, und zu einer recht ordentlichen 12“ ACF-Optik von Meade. Viel Erfahrung bei der Erstellung von hoch auflösenden Bildern hatten wir nicht, und es ergab sich für uns ein Lernprozess, dessen Ergebnis sich in diesem Tutorial widerspiegelt.
Wichtig für das Gelingen guter Bilder sind demnach folgende Punkte:

 

Seeing  -  Kamera  -  Bildverarbeitung  -  Optik

 

Die Rolle des Seeings: Gehen wir einmal davon aus, dass auch in Mitteleuropa gelegentlich ausreichend gute Bedingungen für Aufnahmen mit sehr hoher Auflösung gegeben sind, so reduziert sich dieser Punkt auf ein genügend geduldiges Warten auf den richtigen Zeitpunkt. Das dauert natürlich um so länger, je größer der Durchmesser der Optik ist, wir erinnern uns: Die maximal erreichbare Auflösung ist direkt proportional zur Öffnung.

 

Die Rolle der Kamera: Die heute zur Verfügung stehenden CCD-Kameras (für Planeten teilweise auch CMOS) liegen in Bezug auf Lichtempfindlichkeit und Rauschverhalten zwar an der Grenze dessen, was man idealerweise wünschen würde (bei der Planetenfotografie wird es mit der Belichtungszeit oft schon arg knapp), aber es ist dennoch kein Problem zu akzeptablen Kosten eine sehr ordentliche Kamera zu erwerben, und wie von uns beschrieben an die Optik anzupassen. Bei Planetenaufnahmen mit monochromen Kameras folgt dann noch die Überlegung zur korrekten Filterwahl um optimale Ergebnisse zu erzielen, einige Anmerkungen dazu weiter unten. Wer mit Ir-Passfiltern ein IrGB oder ein IrRGB erzeugen will, sollte eventuell ein Kamera mit einem ExView-CCD verwenden, diese Chips haben ihre maximale Empfindlichkeit im Ir-Bereich. Ganz Bequeme oder Einsteiger können bei leichten Abstrichen mit einer modernen Farbkamera (notfalls sogar mit Rolling Shutter) sehr schöne Planetenbilder machen. Ein unüberwindliches Problem ergibt sich jedenfalls bei der Wahl einer geeigneten Kamera nicht.

 

Die Rolle der Bildverarbeitung: Wer unsere kleinen "Tutorials" verfolgt hat kann unschwer feststellen, dass die ganze Angelegenheit zumindest bei hoch auflösenden Mondfotos und bei Planetenaufnahmen mit Farbkameras eigentlich keine Geheimnisse birgt, die nicht wie wir auch jeder andere Anfänger mit ein wenig Übung meistern kann:


Bis zum fertigen Mondbild dauert das dann nur die Rechenzeit des Computers plus wenige Minuten. Bei Planetenaufnahmen mit Farbkameras ist die schnellste Lösung für Einsteiger das Addieren mit Giotto ohne jede Qualitätsauswahl in der Option „Zentrieren auf helle Scheibe“. Auch zum Schärfen und dem Ausgleich der atmosphärischen Refraktion durch Verschieben der Farbkanäle siehe unten ist Giotto bestens geeignet. Nach kurzer Übungszeit erhält man ganz erstaunliche Bilder, die ein durchaus „gehobenes“ Niveau haben. Das gilt speziell auch für die Planetenfotografie mit Farbkameras, die ohne jedes streng gehütete Wissen auch schöne Ergebnisse liefert wie Mars und Saturn. Die gezeigten Bilder entstanden in wenigen Minuten mit den oben erwähnten einfachen Schritten der Bildbearbeitung wie sie jeder Anfänger nach kurzer Übung machen kann. Wer auch als Anfänger bei der Planetenfotografie Filter verwenden möchte, sollte ein monochromes Luminanzbild unter Einsatz z.B. eines Rotfilters oder eines 685nm Ir-Pass Filters machen, und dann mit der Farbinformation einer Farbkamera kombinieren. Das liefert auf relativ einfache Weise ein IrRGB ohne Verwendung von RGB-Filtern. Die Technik hierzu haben wir untersucht, und in einem Nachtrag zu diesem Tutorial unten dargestellt. Jupiter wurde von uns mit dieser Technik fotografiert. Das Geheimnis guter Bilder liegt also definitiv nicht in besonders ausgefeilten „geheimen“ Methode der Bildbearbeitung, es geht auch ohne aufwändige Verfahren mit zigfachen komplizierten Bearbeitungsschritten! Halten wir also fest, was den Neuling motivieren sollte:


Profis werden bei der Bildbearbeitung mit allen möglichen Tricks zwar immer noch etwas mehr aus ihren Bildern herausholen, aber der Unterschied hält sich in Grenzen. Für die Planetenfotografie mit Filtern z.B. im LRGB, IrRGB, RGB-Verfahren gilt diese Aussage nur eingeschränkt, hier ist Erfahrung sehr nützlich, wird aber leider nicht immer im erwünschten Maße weitergegeben. Ein Beispiel hierfür ist die Homepage von Damian Peach, der ganz hervorragende Mond und Planetenbilder liefert. Obwohl er mit einem unnötig großen Öffnungsverhältnis arbeitet, bringt er das C14 exakt an die von uns berechnete Grenze der Auflösung. Hervorstechendes Merkmal seiner Aufnahmen ist dabei das Fehlen des sonst oft noch vorhandenen „Grauschleiers“ bei den Planetenaufnahmen. Information über seine Art der Bildverarbeitung suchte man jedoch auf seiner Homepage vergeblich, dafür gab es gegen Bezahlung eine DVD, die dann vermutlich auch nicht viel weiter hilft. Das finden wir sehr schade!


Die Rolle der Optik: Wenn also nun die Bildbearbeitung (abgesehen vom LRGB-Verfahren etc.) kein besonderes Wissen erfordert, warum liefern einige Leute hervorragende Bilder, während andere es maximal zu mittleren Achtungserfolgen bringen? Die Antwort darauf ist einfacher als man denkt: Was ein Video zeigt, ist mit einfacher Bildverarbeitung auch für weniger Geübte zugänglich, was ein Video nicht zeigt, bringt auch der beste Profi nicht hervor. Das Geheimnis liegt in der ausgesucht guten Optik die sich alle Amatuer-Profis irgendwie beschafft haben. Videos mit solchen Optiken unter guten Bedingungen aufgenommen, werden auch jedem weniger geübten Bearbeiter zu hervorragenden Bildern verhelfen. Von der Richtigkeit dieser Aussage konnte sich jeder selbst überzeugen, der das von uns früher mal auf CD angebotene Mondvideo kurz durch Registax und Giotto gejagt hat. Halten wir also fest:


Hier ist guter Rat teuer, aber in Bezug auf die Qualität gibt es einige Denkansätze:


Wir prüfen die Optik beim Händler am künstlichen Stern, ist die Optik hier in Ordnung, so ist eine Rückgabe nach dem späteren Test, wie im Tutorial Abschnitt 1 beschrieben, eher unwahrscheinlich. Auf diese Weise sind wir auch an unsere recht gute Meade 12“ ACF- Optik gekommen. Hilfreich ist auch Folgendes: Einige Händler und Firmen bewerben ihre Produkte in den höchsten Tönen: Professionelle Optik, Qualität von professionellen Observatorien, Test-Protokolle aus fragwürdigen Quellen, Hersteller zeigen in der Werbung Bilder von perfekten Sterntests, die eine solche Optik in der Praxis nie liefern wird. Solche Werbeaussagen z.B. im Internet kann man kopieren, und später vorlegen, falls das Produkt die Anforderungen der Werbung nicht erfüllt. Umtausch bzw. Rückgabe sollte dann kein Problem sein. Wichtig ist es aber, dem Händler vor dem Kauf eindeutig zu sagen, dass die Optik für hoch auflösende Fotografie verwendet werden soll, eine Feilscherei um den billigsten Preis sollte man auch nicht anfangen, sondern eher für die Prüfarbeit freiwillig einen deutlichen Aufpreis anbieten….


Optikgröße: Wie wir im Tutorial gesehen haben, bestimmt einzig und allein der Durchmesser der Optik die maximal erreichbare Auflösung. Schon eine geringe Steigerung des Durchmessers um 2“ hat enormen Einfluss auf die Bildqualität. Dazu eine kurze Betrachtung: Im Amateurbereich haben zumindest fast alle Optiken aus der Massenproduktion eine mehr oder weniger kräftige Sphärische Aberration (SA) oder Zonen. Diese Problematik wächst oft mit steigender Größe der Optik. Das bewirkt nun, dass immer nur das Licht von einem bestimmten Teil der Spiegeloberfläche exakt in den Fokus fällt, das restliche Licht bleibt leicht defokussiert. Ein defokussiertes Bild zeigt aber extrem stark jede Luftunruhe (einige Astronomen fokussieren daher nicht auf maximale Schärfe, sondern auf minimale Bewegung im Bild). Besonders eine große Optik mit SA oder Zonen kann daher selbst bei relativ gutem Seeing nie ein ruhiges Bild zeigen. Daher hält sich hartnäckig die Vorstellung, dass das Seeing mit größer werdendem Optikdurchmesser immer mehr Probleme macht. In der Tat sind Optiken bis maximal 15cm Öffnung erkennbar weniger seeinganfällig, bei Durchmessern deutlich darüber ist es aber so, dass im Amateurbereich auch bei schlechten Bedingungen niemals die kleinere Optik das bessere fotografische Ergebnis liefert. 10“ bringen also auch bei schlechtem Seeing keinen Vorteil gegenüber 20“, mit besser werdendem Seeing spielen dann die 20“ immer gnadenloser ihren Vorteile aus! Wir halten also fest:


Für beste Ergebnisse bei Mond oder Planeten sind –mit der angestrebten Auflösung steigend- leider so gute Bedingungen erforderlich, wie es sie an einem durchschnittlichen Beobachtungsplatz nur an ganz wenigen Tagen im Jahr gibt. Man muss also an jedem klaren Abend einen Versuch machen, der nur in ganz wenigen Fällen das erwünsche Ergebnis liefert. Das ist für „Normalverbraucher“ wie uns, die ihre klapprige gebraucht- Montierung immer neu aufbauen müssen, eine Katastrophe! Profis habe oft ein Hütte mit fest installiertem Teleskop auf einer ordentlichen Montierung, und können mal eben probeweise „durchschauen“, ob das Seeing passt. Falls nicht klappt man die Hütte zu, bequemer geht es dann nicht mehr. Trotz aller dieser Hindernisse sollte man sich aber nicht entmutigen lassen. Man berechnet zunächst wie in unserem Tutorial beschrieben ganz realistisch, was mit der eigenen Öffnung an Auflösung maximal möglich ist, und freut sich dann, wenn es gelungen ist, dieser Vorgabe nahe zu kommen……


Unsere Arbeit ist damit vorerst beendet. Was wir aus unserer beschränkten Erfahrung heraus beitragen können, haben wir hier vorbehaltlos zu Protokoll gegeben. Einige interessante Fragen sind noch offen geblieben, und können eventuell später noch beantwortet werden!

 

Seitenanfang


 

Teil 9: Nachtrag zum Thema Filter und Infrarotfotografie.


Bei der Fotografie von Mond und Planeten kämpft man ständig mit Problemen, die das Ergebnis der Bemühungen verschlechtern. Drei dieser Probleme lassen sich unter gewissen Bedingungen durch den Einsatz von Filtern zumindest teilweise in den Griff kriegen:

Wer nun ein Kochrezept zur Verwendung von Filtern erwartet, wird enttäuscht sein. Bei der Verwendung von Filtern spielen so viele Faktoren eine Rolle, dass es unumgänglich ist, sich zunächst mit den Wirkungen der Filter vertraut zu machen. Nur so kann man dann in Einzelfall den Nutzen gegen die Nachteile abwägen, und zu einer geeigneten Auswahl kommen.

 

Was ist atmosphärische Refraktion? Licht von tief stehenden Objekten tritt unter einem flachen Winkel in die Atmosphäre ein, und wird daher wie an einem Prisma gebrochen. Im Bereich des sichtbaren Lichts nimmt die Brechung mit zunehmender Wellenlänge deutlich ab (Dispersion). Blaues Licht wird also stärker abgelenkt, und scheint daher für einen Beobachter in der rückwärtigen Verlängerung des Lichtweges von weiter oben zu kommen, rotes Licht wird weniger gebrochen, und scheint daher von weiter unten zu kommen. Das Bild eines Planeten besteht also aus mehreren leicht gegeneinander verschobenen farbigen Bildern, von denen das blaue Bild ganz oben, und das rote Bild ganz unten liegt. Erkennbar ist das an einem blauen Farbsaum oben, und einem roten Farbsaum unten, siehe Jupiter links oben.

 

Wie beseitigt man atmosphärische Refraktion? Bei Farbbildern ist das recht einfach. Man zerlegt das Bild in die RGB - Kanäle (Rot, Grün, Blau), und verschiebt Blau nach unten, und Rot nach oben, bis alle drei Kanäle exakt übereinander liegen, siehe 2. Bild links oben. Das gelingt ganz einfach aber nicht zu 100% mit Giotto oder Photoshop. Bei s/w - Bildern ist eine nachträgliche Korrektur so nicht möglich, man muss schon bei der Aufnahme ein Farbfilter verwenden (geeignet sind IR, R, G) damit ein scharfes Bild auf die Kamera gelangt. Welches Filter man wählt hängt von der Luftunruhe ab, und wird weiter unten erläutert. Alternativ beseitigt man bei horizontnahen Aufnahmen die Farbaufspaltung auch ohne Filter mit dem bereits weiter oben beschriebenem ADC vollständiger als bei der nachträglichen Verschiebung der Farbkanäle.

 

Was ist Luftunruhe? Beim Durchlaufen der Atmosphäre passiert das Licht Bereiche unterschiedlicher Dichte. diese können oft sehr klein sein (Turbulenzzellen). Dabei wird das Licht in schnellem Wechsel in die verschiedensten Richtungen gebrochen, und kann in der Kamera kein scharfes Bild mehr erzeugen. Besonders schlimm ist das, wenn der Lichtweg in der Atmosphäre sehr lang ist, also bei tief stehenden Objekten, die Auswirkungen auf die Abbildung sind dann katastrophal, Fotografie ist unmöglich. Da in unseren Breiten das "Seeing" nur selten wirklich gut ist, macht man sich natürlich Gedanken darüber, ob es da eine Abhilfe gibt.

 

Wie beseitigt man die Auswirkungen von Luftunruhe? Eine nachträgliche Beseitigung der Unschärfe durch Luftunruhe ist (bis auf das übliche Schärfen mit Schärfungsfiltern und die Zerlegung des Bildes in Teilbereiche bei der Bildbearbeitung) unmöglich. Nun ist es aber so, dass die Brechung (Refraktion) und die damit auch verbundene Aufspaltung in Farben (Dispersion) mit steigender Wellenlänge abnimmt. Rotes oder gar infrarotes Licht wird erheblich weniger gestört als grünes oder blaues Licht. Bei s/w - Bildern setzt man einfach ein Infrarot - Passfilter vor die Kamera um die Abbildung zu verbessern. Das ist problemlos möglich, weil die modernen Kameras (speziell mit ExView -  CCD) gerade im Infrarot eine sehr hohe Empfindlichkeit haben. Die Verbesserung der Abbildung ist beträchtlich, siehe Mondbilder . Ir-Passfilter können beim Mond allerdings auch die Differenzierung von Graustufen leicht verschlechtern. Bei Farbe ist es etwas komplizierter. Hier macht man sich zu Nutze, dass das Auge die Bildschärfe nicht nach der Farbe (Chrominanz), sondern nach dem Hell-Dunkel-Anteil (Luminanz) eines Bildes beurteilt. Man fertigt also mit dem Ir - Filter ein brauchbares s/w - Bild, und setzt die Farbe eines unbrauchbaren "normalen" Farbbilds ein. Das Ergebnis ist eine durchaus brauchbares Ir-RGB, siehe Jupiter oben rechts. Bei weniger starker Luftunruhe kann auch ein R-RGB oder sogar G-RGB die Bildqualität verbessern, wobei diese Filter die Belichtungszeit nicht so extrem verlängern wie ein Ir-Filter. Nur auf diese Weise konnten wir trotz miserabler Bedingungen 2008 noch recht nette Aufnahmen von Jupiter als Ir-RGB machen, und unter nicht ganz so schlechten Bedingungen 2009 ein Bild von Saturn als R-RGB. Ein weiteres Ir-RGB von Jupiter entstand bei etwas besseren Bedingungen 2011.

 

Was ist schlechte Farbkorrektur? Mit astronomischen Teleskopen können nicht alle Wellenlängen (Farben) ohne Probleme in einem einzigen Brennpunkt gesammelt werden. Das führt zu Farbsäumen an den Bildern und reduziert den Kontrast erheblich, weil immer nur eine Farbe im Fokus ist. Besonders kritisch ist das bei Linsen, weil Gläser die verschiedenen Wellenlängen unterschiedlich brechen. Auch extrem teure Apochromaten haben noch restliche Farbfehler, und sei es nur im unsichtbaren IR oder UV (das aber von einer Kamera im Gegensatz zum Auge sehr wohl "gesehen" wird). Spiegel haben mit Farbfehlern kein Problem, sind sie mit Glas kombiniert (wie bei einem SC) so treten auch hier geringe Farbfehler auf. Die bei den Kameras vorgeschalteten Barlows oder Konverter bewirken ebenfalls (oft nur geringe) Farbfehler.

 

Wie beseitigt man die Auswirkungen schlechter Farbkorrektur? Bei Farbkameras ist eine Beseitigung der Unschärfen durch Farbfehler der optischen Komponenten leider unmöglich. Teilweise Abhilfe schafften nur eine bessere Optik, eine spezielle Korrekturlinse die für einige Refraktoren zur Verfügung steht, oder spezielle Filter zur Verringerung der Farbfehler ohne das Bild zu sehr einzufärben (z.B. Semi-Apo-Filter, Fringe-Killer). Bei Schwarz-Weiß Kameras liegt das Problem anders. Hier kann man Farbfilter einsetzen die die von der Optik nicht korrekt fokussierten Farben nicht durchlassen. Ist z.B. ein teurer APO im Sichtbaren Licht ohne Tadel, bildet aber IR und /oder UV nicht richtig ab, so verwendet man einen IR bzw. IR/UV Sperrfilter. Ist ein billiger Refraktor nur für Grün gut korrigiert, so verwende man ein Grünfilter. Das kann dann oft zu extrem guten Bildern führen, leider aber keinen Farbbildern. Es gibt aber noch einen Trick, wie man dennoch zu ordentlichen Farbbildern kommt: Man macht drei Bilder mit R, G, B-Filter, und setzt diese drei s/w-Bilder dann im Computer zu einem RGB-Farbbild zusammen, ein etwas kompliziertes Verfahren, aber in diesem Fall die einzige Lösung.

 

Also Alles bestens? - Leider nicht ganz!  Filter können bei schlechten Bedingungen die Bildqualität zwar ganz erheblich steigern, leider verlängern sie aber die Belichtungszeit, und verringern frequenzproportional die Auflösung des Teleskops, Beispiel Ir - Filter: Bis 30% weniger Auflösung bei vierfacher Belichtungszeit. Man sollte eigentlich also wegen der Auflösung möglichst ein Filter für eine kurze Wellenlänge wählen. Da aber gerade das kurzwellige Blau stark in der Atmosphäre gestreut wird, würde die Wahl eher auf Grün fallen. Will man Luftunruhe kompensieren, so ist man zur Anwendung von Rotfilter oder sogar Ir-Filter gezwungen. Wir haben ein Ir-Filter mit 685nm verwendet, von der Auflösung her noch ein vertretbarer Kompromiss. Es gibt Filter die noch weiter im IR liegen, aber Vorsicht: Solche Filter verlängern die Belichtungszeit enorm, weil die Empfindlichkeit der CCD-Kamera in diesem Bereich oft schon wieder abnimmt. Wer eine für IR brauchbare Optik hat (und das sind z.B. praktisch alle Spiegel), und eine genügend empfindliche Kamera, der sollte bei schlechtem Seeing unbedingt mal Aufnahmen mit IR-Passfilter versuchen. Bei sehr gutem Seeing bringt das Filter nur dann Vorteile, wenn das Objekt bei einer s/w-Aufnahme sehr niedrig steht (atmosphärische Refraktion), bei gutem Seeing und hoch stehendem Objekt ist das Filter unnötig, ohne Filter werden dann (bis auf wenige Ausnahmen) die besten Ergebnisse erzielt.

 

Eigenschaften von Filtern bei der Verwendung  einer s/w-Kamera

Filter

Atmosphärische

Dispersion

Theoretische

Schärfe

Einfluss

Luftunruhe

Verlängerte

Belichtung

Farbfehler

der Optik

Erhöhter

Kontrast

IR pass

+

-

++

--

(+)

(+)(-)

Rot

++

-

+

-

++

(+)

Grün

++

o

o

-

++

(+)

Blau

++

+

--

--

(+)

(+)

IR sperr

o

(+)

o

-

+

(+)

 

(+) bedeutet: Wirkung von Fall zu Fall verschieden.      O bedeutet: keine wesentliche Wirkung.

 

Eigenschaften von Filtern bei der Verwendung  einer Farbkamera

Filter

Atmosphärische

Dispersion

Theoretische

Schärfe

Einfluss

Luftunruhe

Verlängerte

Belichtung

Farbfehler

der Optik

Erhöhter

Kontrast

IR sperr

(+)

o

o

-

+

(+)

Fringe Killer

 

o

o

-

+

(+)

Semi-Apo

 

o

o

-

+

(+)

Kontrast Filter   o o - (+) (+)

 

Ausnahmen von der Regel?  Wer bei Farbkameras Wert auf unverfälschte Farben legt, muss ein IR-Sperrfilter verwenden. Diese Filter sind bei normalen Farbkameras bereits fest eingebaut. Unter gewissen Umständen sollte man Filter auch bei besten Beobachtungsbedingungen und perfekter Optik verwenden. Gelegentlich können Details bestimmter Farbe auf Planeten durch die Verwendung eines geeigneten Filters verstärkt hervorgebracht werden, eins von vielen  Beispielen sei die Darstellung von Wolken auf der Venus mit einem UV-Passfilter oder die Fotografie des Mars mit einem IR-Filter.


Seitenanfang