Willkommen auf der Astronomie-HomepageCCD-Kamera CCD-Beobachtung CCD-Astrofotografie SBIG-Kamera

Die Astronomie-Seite für Sternfreunde

Der Stuttgarter CCD-Workshop

ist eine gute Veranstaltung für die Einarbeitung in diese Materie: Direktlink

CCD-Technik für SternfreundeCCD-Kamera, CCD-Astrofotografie

Die digitaler Erfassung von Bildinformationen schreitet - nicht nur in der Astronomie immer weiter voran. Inzwischen steht auch für Sternfreunde eine große Auswahl an Digital-Kameras zur Verfügung. Durch den Einsatz verschiedener CCD-Chips mit unterschiedlichen Arbeitsweisen und durch die verschiedensten Softwareangebote wird das Gebiet der digitalen Astrofotografie immer unübersichtlicher. Dieser Beitrag will Sie schrittweise in die Grundlagen der CCD-Technik einführen.

1. Grundlagen der CCD Technik

2. Arbeiten mit einer CCD Kamera, Fehlerkorrektur an Bildern

3. Grundzüge der digitalen Bildbearbeitung

4. Nachtrag (Linearität von CCD-Kameras)

CCD Technik für Sternfreunde

1. Grundlagen der CCD Technik
1.1 CCD-Chips

Das Herzstück einer CCD-Kamera ist der CCD-Chip. Um ihn herum wird die Elektronik und Mechanik konstruiert. Wir wollen uns als erstes mit diesem CCD-Chip beschäftigen: Die wesentlichen Kenngrößen eines Chips sind seine Pixelgröße (Abb. 1) und die Anzahl der auf ihm befindlichen Pixel. Hieraus lässt sich die Gesamtgröße eines Chips errechnen (Pixelgröße x Anzahl der Pixel). Die Kleinsten in der Amateurastronomie verwendeten Chips haben eine Größe von ca. 2 x 3 mm, die Größten liegen bei 24x36 mm und sind in ihrer Größe dem Kleinbild vergleichbar. Abbildung 2 zeigt maßstäblich die Größenverhältnisse zwischen den Pixeln. Bei der Größe der Pixel verhält es sich wie bei der klassischen Fotografie mit dem Filmkorn: kleine Pixel (feinkörniger Film) stehen für hohe Auflösung, aber geringere Empfindlichkeit. Geringe Empfindlichkeit, weil die Fläche auf der sich das Licht sammelt klein ist. Große Pixel sind empfindlicher, dies geht aber auf Kosten der Auflösung. Bei der Auswahl einer Kamera ist darauf zu achten, dass die Kamera kein besseres Auflösungsvermögen hat als das Teleskop. Der Grund hierfür wird später genauer erläutert. Von den Kameraherstellern werden zur Zeit drei verschiedene CCD-Sensortypen angeboten:

Full Frame-, Frame Transfer- und Interline Frame TransferChips.

Bei der Full Frame Technik (Abb. 1) wird die ganze Chipfläche für die Aufnahme verwendet. Um die Belichtung zu beenden ist ein mechanischer Verschluss notwendig. Dies garantiert bei diesem Chip-Typ, dass während des Auslesevorgangs (übertragen der Aufnahmeinformation an einen Rechner) kein weiters Licht auf die Pixel fällt und verhindert damit, dass die Aufnahme verfälscht wird. Bei der Frame Transfer-Technik (Abb. 3) wird die Hälfte des Chips maskiert also mit einer lichtundurchlässigen Schicht abgedeckt. Am Ende der Belichtung wird das Bild sehr schnell in den maskierten Bereich verschoben und kann dann ausgelesen werden. Bei der Interline Frame Transfer-Technik (Abb. 5) ist jede zweite Pixelzeile maskiert. Am Ende der Belichtung werden die Zeilen dann um einen Pixel verschoben. Dies erlaubt sehr kurze elektronische Belichtungszeiten.

CCD Technik für Sternfreunde

Abb. 6a/b Wirksame Fläche beim Interline-Transfer-Chip/ Linse auf dem Chip

Auffallend ist, dass die optisch wirksame Fläche bei den Interline Frame Transfer -Chips besonders klein ist. Betrachten wir die Abb. 6a. Im 2-fach Binning-Mode (d.h. um die Empfindlichkeit zu erhöhen werden 2 x 2 Pixel zu einem zusammengefasst, später dazu noch mehr) sind die weißen Quadrate die wirksame lichtempfindliche Fläche. Dazwischen liegt eine Isolation (schwarz). Zudem tragen die maskierten Pixel (blau) nicht zur Empfindlichkeit bei. Die tatsächliche für die beiden Pixel verbrauchte Fläche ist rot und weiß umrandet. Zwei benachbarte Pixel sind ebenfalls angedeutet. Ein Vergleich der zwei weissen Flächen zur roten Fläche zeigt, dass nur ca. 25% der Fläche optisch wirksam sind. Um den Wirkungsgrad zu verbessern (man sagt hierzu in der Optoelektronik Quanteneffizienz = QE erhöhen) bringen die Chip-Hersteller Mikrolinsen auf (Abb. 6b). Diese Linsen bestehen aus einer optisch brechenden Flüssigkeit, die aufgetropft wird. Die Mikrolinsen sind also ausgehärtete Tröpfchen einer erstarrten Flüssigkeit. Erst durch diese Technik werden Interline Frame-Transfer-Chips für die Astrokameras interessant. Abb. 7 zeigt die Quanteneffizienz des Kodak KAI 2000 Chips mit und ohne Mikrolinsentechnik (Dieser Chip ist in der ST2000 von SBIG eingebaut). Die Wirkung der Mikrolinsen ist enorm. Hierdurch wird die Quanteneffizienz(QE) von ca. 8 auf ca. 45% gesteigert. Ein weiteres interessantes Phänomen ist in Abb. 7 zu erkennen. Die Abhängigkeit der QE von der Wellenlänge. Der gezeigte Sensor hat die max. Empfindlichkeit bei 480 nm mit ca. 44 %. Bei 680 nm, also bei der H-Alpha Linie beträgt die QE "nur" noch 22 %. Das "nur" steht deshalb in Anführungszeichen, weil es die besten Filme lediglich auf 4 ... 5 % bringen.

Quantenefficienz

Abb. 7 Quanteneffizienz mit und ohne Mikrolinsen.

Eine wichtige Kenngröße für die CCD-Chips fehlt jetzt noch: die sogenannte Full Well-Capacity. In jedem Pixel wird Licht in elektrische Ladung umgewandelt. Die Lichtstrahlen werden im dotierten Siliziumkristall absorbiert und erzeugen elektrische Ladungen. Durch die umgebenden Elektroden (in Abb. 5 schwarz) wird eine Ladungssenke gebildet, die die entstehenden Elektronen festhält. Irgendwann ist die Ladungssenke voll; wenn jetzt weiteres Licht auf die aktiven Pixel fällt, werden noch mehr Elektronen freigesetzt. Diese laufen dann in andere Pixel über. Diesen Effekt nennt man Blooming. Das Auslaufen der Pixel - der Blooming-Effekt - kann verhindert werden, wenn beim Herstellungsprozess zwischen den einzelnen Pixeln eine Potentialsperre aufgedampft wird. Diese Sperren vermindern aber die Empfindlichkeit je nach Chip um bis zu 30%. Die Full Well-Capacity gibt nun an wie viele Elektronen in einem Pixel aufgenommen werden können bevor er ausläuft. Die Anzahl der Elektronen ist abhängig von der Größe der Pixel und liegt zwischen 20 000 und 200 000. Abb. 3 verdeutlicht diesen Zusammenhang. Während beim 24 µm Pixel der Wert bei 180 000 Elektronen liegt, liegt er beim 6 µm Pixel bei 20 000 Elektronen. Diese Größe ist ein direktes Maß für die Empfindlichkeit der Kamera.

 

1.2 Auslesen des Sensors

Quantenefficienz

Abb. 8 Auslesen des Chips

Solange Licht auf den Sensor fällt, steigt die Zahl der Elektronen in den einzelnen Pixeln linear an. Am Ende der Belichtung müssen die Elektronen jedes einzelnen Pixels gezählt (registriert) werden. Wie in Abb. 8 gezeigt wird, werden zuerst die Elektronen einer ganze Pixelreihen nach unten verschoben. Dann werden die Elektronen pixelweise nach rechts verschoben. Bevor die Elektronen auf einen Rechner übertragen werden, werden sie verstärkt, digitalisiert und für die Darstellung auf dem Monitor wieder dem richtigen Bildelement zugeordnet. Dieser Vorgang ist recht kritisch und verläuft bei keinem Kamerahersteller fehlerfrei. Wird das Bild sehr schnell ausgelesen besteht die Gefahr, dass Elektronen verloren gehen oder nicht schnell genug nachkommen und dann anderen Pixeln zugeordnet werden. Wird das Bild zu langsam ausgelesen, gehen Elektronen verloren, weil die Isolation zwischen den Pixeln nicht 100%ig ist. Das Signal wird also auf jeden Fall verfälscht. Das Streuen des ausgelesenen Wertes um den wirklich wahren Wert wird Rauschen genannt. Das speziell beim Auslesen des Sensors entstehende Rauschen wird Ausleserauschen oder read out noise genannt. Diesen Wert geben Kameraherstellern in den technischen Unterlagen an. Er liegt durchschnittlich im Bereich von 10 ... 100 Elektronen pro Pixel. Welche Möglichkeiten es gibt, das Rauschen zu reduzieren wird später besprochen.

 

1.3 Mechanische und elektronische Komponenten der Kamera

Quantenefficienz

Abb. 9 Mechanische Komponenten dr Kamera

Abb. 10 Elektronische Komponenten der Kamera

In Abb. 9 sehen wir die wichtigsten Komponenten der CCD-Kamera. In der Mitte vorne befindet sich der CCD-Chip, welcher durch ein Fenster geschützt ist. Der Chip ist mit dem Peltierelement durch Kühlfinger verbunden. Das Peltierelement wird für die Kühlung des Chips verwendet. Der Peltiereffekt ist eine thermoelektrische Erscheinung, die bei einem Stromfluss an der Grenzfläche zweier Leiter auftritt. Der Effekt tritt bei Materialien, wie z.B. Kupfer/Halbleiter/Keramik, besonders deutlich hervor und erlaubt den Einsatz als Heizung oder als Kühlung. Die kalte Seite des Pelitierelements wird mit dem CCD-Sensor verbunden. Die auf der anderen Seite entstehende Wärme wird über Kühlrippen nach außen abgeführt. Zur weiteren Kühlung kann ein Ventilator zugeschaltet werden. Damit sich kein Frost auf dem Chipfenster niederschlägt muss der Innenraum sehr trocken sein. Alternativ verhindert auch ein Vakuum den Niederschlag von Frost. Je nach Ausführung ist ein mechanischer Verschluss, ein kleiner zweiter Chip für die Nachführung der Kamera, eine Steckhülse oder ein Gewindeanschluss für das Teleskop vorhanden. In dem verbleibenden Platz wird die Elektronik untergebracht. Für den Betrieb der Kamera ist eine Spannungsversorgung und ein PC notwendig. Angesteuert wird die Kamera über die USB-Schnittstelle bzw. ältere Modelle über die parallele Schnittstelle. Für den Betrieb des Chips befindet sich auf der Platine ein Timer (Abb. 10). Das vom Timer gelieferte "Clock"-Signal wird zum Löschen, für die Ermittlung der Belichtungszeit und für das Auslesen des Chips (Abb. 10) verwendet. Beim Auslesen wird das einzelne Pixelsignal zuerst verstärkt. Daran anschließend wird es digitalisiert und der digitale Wert über eine Schnittstelle an den PC geschickt.

 

1.4 Software

Unter Software werden diejenigen Programme verstanden, die sich auf dem PC befinden. Also keine Programme die z.B. den Mikrocontroller in der Kamera steuern. Die Software hat primär die folgenden Aufgaben:
- (Fern-)Steuerung der Kamera vom PC aus Belichtungszeit, Temperatur, Binning-Mode
- (Fern-)Steuerung der Farbfilter vom PC aus - Steuerung der Montierung (Guiding) Nach Beendigung der Aufnahme:
- Laden des Bildes auf den PC
- Speichern des Rohbildes
- Einfache Bildmanipulationen (Pixelweise addieren, subtrahieren...)

Manche Hersteller bieten Bedienungsanleitungen und Software zum Download vorab an. Informieren Sie sich deshalb vor dem Kauf einer CCD-Kamera über diese Informationsquelle.

 

1.5 Hinweise zur Auswahl der Kamera

Quantenefficienz

Wer in die CCD-Technik einsteigen möchte, hat üblicherweise schon ein Teleskop und eine Montierung. Genauso gibt es Vorlieben, welche Objekte beobachtet werden sollen. Es gilt also für die Ausrüstung und für die eigenen Neigungen eine passende Kamera auszuwählen.

Dabei sind folgende Parameter zu beachten:
- Grösse des Gesichtsfeldes
- Auflösung der Kamera
- Linearität der Kamera (für Beobachter von veränderlichen Sternen)

Die Grösse des Gesichtsfeldes ist abhängig von der Chipgrösse und der Brennweite des Teleskops. Sie ist nicht abhängig von der Öffnung oder dem Öffnungsverhältnis. Die Grösse des Gesichtsfeldes berechnet sich nach Formel 1. Ein Beispiel: Bei einem Instrument mit 1000 mm Brennweite und einer Chipgrösse von 12 x 9 mm beträgt das Gesichtsfeld (3438 x 12 mm)/1000 mm = 41 x 31 Bogenminuten. Die Verhältnisse sind linear, d.h. bei 2 m Brennweite ist das Gesichtsfeld nur noch halb so gross! Eine weitere wichtige Kenngröße ist die Auflösung der Kamera. Diese kann auch mit Formel 1 berechnet werden. Anstatt der Kantenlänge des Chips wird die Pixelgröße z.B. 0,0074 mm eingesetzt und das Ergebnis mit 60 multipliziert um von den Bogenminuten auf die Bogensekunden zu kommen (3438 x0,0074 mm)/1000 mm x 60 = 1,52 Bogensekunden. Bei der Auflösung der Kamera ist zu beachten, dass das Auflösungsvermögen der Kamera nicht besser ist, als die Auflösung des Teleskops. Warum? Fällt das Beugungsscheibchen genau auf einen Pixel, ist die Empfindlichkeit optimal ausgenutzt. Das gesamte Licht eines Sternes fällt auf einen Pixel. Dafür sind die Sterne eckig und es fehlen Grauanteile im Bild: Dies wird auch Undersampling genannt. Ist nun die Brennweite des Teleskops so gewählt, dass das Beugungsscheibchen z.B. auf 20 Pixel fällt, so entsteht ein Grauverlauf des einzelnen Sterns und er wird schön rund. Die Kamera arbeitet aber sehr unempfindlich, weil sich das Licht eines einzigen Sterns nun auf sehr viele Pixel verteilt: Dies wird auch Oversampling genannt. Ist also das Auflöusungsvermögen der Kamera höher als das des Teleskops, so wird Empfindlichkeit und damit die erreichbare Grenzgröße herabgesetzt.

Die Optimale Einstellung wird Critical Sampling genannt: die Kamera muss noch empfindlich arbeiten, die Sterne sollen aber trotzdem fein abgestuft sein. Erfahrungswerte zeigen nun, dass eine Auflösung von 1 ... 2 Bogensekunden pro Pixel optimal sind. Ist aber das Seeing ca. 5 Bogensekunden, dann ist auch eine Auflösung von 5 Bogensekunden pro Pixel ausreichend.

Beispiel: das Seeing betrage 5 Bogensekunden. Im ersten Fall wird mit einer Kamera belichtet, deren Auflösungsvermögen 1.5 Bogensekunden/Pixel beträgt. Im zweiten Fall wird mit der gleichen Kamera im 3 x3 Binning-Mode gearbeitet. Die Auflösung beträgt also 4.5 Bogensekunden/Pixel. Beim Vergleich der beiden Bilder wird sich zeigen, dass die Auflösung in beiden Aufnahmen identisch ist; begrenzt durch das Seeing. Bei der Aufnahme, bei der im 3x3 Binning-Mode gearbeitet wurde, werden aber schwächere Sterne noch zu sehen sein. Durch das Binning wird das Rauschen nicht erhöht, weil die Information der Pixel (hier von 9 Stück) vor dem digitalisieren addiert werden. Abb. 11 zeigt nun zwei schlechte Beispiele, das linke Bild ist undersampled, der Sterne ist auf zu wenig Pixel verteilt. Das rechte Bild ist oversampled, das Licht wird auf zu viele Pixel verteilt.
Bei Mond- und Planetenaufnahmen ist eine Auflösung von ca. 0,1 bis 1 Bogensekunde pro Pixel am geeignetsten. Es ist auch vernünftig sich für seine Ausrüstung eine Tabelle wie in Abb. 12 zu erstellen; dann hat man die entsprechenden Werte auch nach einer Regenperiode immer gleich zur Hand. Ein weiterer wichtiger Aspekt ist die Linearität der Kamera. In Abb. 13 ist über die Zeit [t] die Anzahl der Elektronen [e-] aufgetragen. Die Anzahl der Elektronen steigt proportional mit den empfangenen Lichtquanten, bis die Full Well Capacity erreicht ist. Danach laufen die Elektronen in andere Pixel über und es kommt zu den sogenannten Blooming-Streifen. Bei Kameras mit Anti-Blooming-Gate wird durch Aufbringen einer Potentialsperre das Blooming verhindert, indem die Elektronen über ein Gate abgeleitet werden. Es wird nun immer wieder behauptet, dass Kameras mit Anti-Blooming-Gate für photometrische Messungen nicht eingesetzt werden können, weil diese nicht linear seien. Der Autor hat seine Kamera mit Anti-Blooming Gate nach der Anordnung in Abb. 12 vermessen. Die Diskussion der Messergebnisse würde den Rahmen hier sprengen. Es bleibt aber festzuhalten, dass die Kamera fast über den ganzen Bereich linear ist. Auf dem CCD-Workshop 2003 der Stuttgarter Sternwarte wurde diese Thematik angesprochen. Inzwischen liegen Messkurven für die folgenden Kameras vor: SBIG ST2000, Starlight SXV SXV-H9.
Bei allen diesen Kameras konnte die immer wieder behauptete Nichtlinearität nicht festgestellt werden. Zumindest ist der Bereich in Abb. 13 zwischen L und S wesentlich kleiner als immer behauptet wird. Die ST2000 des Autors hat eine Full Well Capacity von 48000. Die Nichtlinearität beginnt bei etwa 45000; also fast im Bereich der Sättigung und spielt somit keine Rolle. Die Messkurven liegen auf der Homepage des Autors zum Download bereit (www.astro-siggi.de). Falls Sie Ihre Kamera vermessen möchten bin ich gerne bereit Sie zu unterstützen und auch Ihre Messkurve auf meine Web-Site zu stellen.

 

2. Arbeiten mit einer CCD Kamera, Fehlerkorrektur an Bildern

2.1 Der Start am Abend

Der Beobachtungsabend beginnt bei mir meistens ca. 1/2 Stunde vor Sonnenuntergang. Die Zeit bis es dunkel ist verwende ich für folgende Aufgaben:
1. Inbetriebnahme der Ausrüstung.
2. Kühlung der Kamera und Erstellung von BIAS- und DARK-Bildern.
3. Mit der Goto-Funktion suche ich einen hellen Stern zum Scharfstellen
4. Nach der Fokussierung im Moment der Dämmerung (in der man visuell noch keine Sterne sieht) erstelle ich die sogenannten Flats.
5. Die Zeit bis es dann "richtig" dunkel ist nutze ich für die weitere Erstellung von DARK-Bildern.

 

2.2 Die Bildfehler

Fehler bei einer CCDKamera, Pixelfehler

Abb. 15 Fehler eines Pixels
grau: Nutzinformation
orange: Temperaturrasuchen
blau: Sensitivität des Systems
weiss: Ausleserauschen des Verstärkers

Im ersten Teil wurden verschiedene Fehlerquellen erörtert. Vom Lichtquant, welcher am Pixel ankommt bis zur Darstellung am Monitor ist es ein langer Weg. Von der Information in einem Pixel interessiert uns im wesentlichen die Nutzinformation (siehe Abb. 15, grauer Anteil im Balken). Also der Teil der Sättigung des Pixels welcher von den einfallenden Lichtquanten hervorgerufen wurde.

 

 

Die Fehlerquellen hierbei sind:

Fehlerquelle Ursache Beseitigung
1 Temperaturrauschen Eigendynamik der Elektronen Kühlung, Darkbild
2 Ausleserauschen
des Verstärkers
interne Elektronik BIAS-Bild
3 Sensitivität des Systems
nicht homogener Fertigungsprozess
des CCD-Chips, optische Fehler, Staub
FLAT-Bild
Bei der Beseitigung dieser Fehler handelt es nicht um Schritte der Bildbearbeitung
im eigentlichen Sinne, sondern um eine Fehlerkorrektur.

 

zu 1:

Dunkelbilder

Abb. 16: Darkbilder als Funktion der Temperatur

Für die Beseitigung des Temperaturrauschens erstellt man neben dem Bild noch eine Aufnahme bei geschlossenem Verschluss mit der gleichen Belichtungszeit und bei der gleichen Temperatur. Weil dieses Bild bei Dunkelheit erstellt wird nennt man es auch DARK-Bild oder einfach DARK. Betrachten wir nochmals Abb. 15: Bei geschlossenem Verschluss fällt keine Nutzinformation an und eine evtl. vorhandene Überempfindlichkeit des Pixels spielt keine Rolle, da ja kein Licht auf die Pixel fällt. Wir erhalten also ein Bild das lediglich das Temperaturrauschen und das Ausleserauschen des Verstärkers enthält. Mit dem DARK beseitigt man also den orangen und den weissen Fehler-Anteil im Balken bei Abb. 15. Das Rauschen nimmt mit fallender Temperatur ab und halbiert sich etwa alle 6 °C. Abb. 16 zeigt die Wirkung der Kühlung bei einer SBIG ST2000. die Belichtungszeit betrug jeweils 5 min. Da dieser Fehler reproduzierbar ist, müssen die DARKs nicht unbedingt am Beobachtungsabend erstellt werden. Sonst wird die Hälfte der Beobachtungszeit für die DARKS verwendet. Empfehlenswert ist es eine DARK-Bibliothek in Abhängigkeit von Temperatur und Belichtungszeit anzulegen. Werden für das DARKs zusätzlich noch BIAS-Bilder (weisser Anteil) erstellt, so werden die DARKs skalierbar, d.h. ein 10-minütiges DARKs kann auch für eine 5-minütige Belichtung verwendet werden.

 

zu 2:

Erstellen wir wieder ein Bild bei geschlossenem Verschluss, aber mit der kürzest möglichen Belichtungszeit (theoretisch 0 s) so ist das Temperaturrauschen vernachlässigbar. Wir erhalten also ein Bild nur mit dem Fehler des Ausleseverstärkers (weisser Anteil). Dies Bild nennt man BIAS Bild. Natürlich bemerkt man hier auch defekte Pixel. Z.B. Pixel die überhaupt keine Elektronen aufnehmen (tote Pixel) oder Pixel die immer gesättigt sind (heiße Pixel).

 

zu 3:

Fehler bei einer CCDKamera, Pixelfehler

Abb. 17

In Abb. 17 zeigt das linke untere Bild ein sogenanntes Flat. Wäre das optische System ideal und die Empfindlichkeit aller Pixel gleich groß, könnte man auf diese Korrektur verzichten. Liegt aber z. B. ein Staubkorn im optischen System in der Nähe des Chips, so macht sich dieses anhand eines Ringes bemerkbar. Je schärfer der Ring ist, desto näher liegt die Verschmutzung am CCD-Chip. Zudem führt die Vignettierung zu einer nicht homogenen Ausleuchtung des Bildes. Die Fehler sind vielseitig und sollen hier nicht alle besprochen werden (z.B. die ungleiche Empfindlichkeit der einzelnen Pixel). Wichtiger ist, dass alle Fehler, die die Empfindlichkeit beeinflussen, korrigiert werden können! Am besten gelingt dies, wenn eine "absolut" homogene weisse Fläche mit dem Teleskop fotografiert wird. Bei einem idealen System müsste dann nach dem Abzug des BIAS und des DARKs wieder ein homogenes weisses Bild herauskommen. Dies ist aber nicht der Fall. Ein so erstelltes Bild nennt man Flatfield oder kurz Flat (Abb. 17 unten). Nicht ganz einfach ist es eine homogene Fläche zu finden. Ich benutze hierfür meist den Himmel während der Dämmerung wenn noch keine Sterne sichtbar sind. Dabei hat man allerdings nicht viel Zeit. Lediglich ein paar Minuten in der Abend- oder Morgendämmerung. Alternativen sind z.B. das erstellen einer Flatbox, die man für die Erstellung eines Flats vor das Teleskop montiert. Links für die Herstellung einer Flatbox finden Sie auf der Homepage www.astro-siggi.de. Die gesamte Korrektur des Rohbildes ist in Abb. 17 veranschaulicht. Vom Rohbild wird als erstes das DARK mit Hilfe einer Bildbearbeitungs-Software abgezogen (Es wurde bei der gleichen Temperatur und mit der gleichen Belichtungszeit wie das Rohbild erstellt). Da das erstellte DARK auch ausgelesen wurde, enthält dieses auch das Ausleserauschen des Verstärkers. Dieses wird gleich mit abgezogen. Man erhält so in der ersten Zwischenstufe ein um den Dunkelstrom und das Ausleserauschen korrigiertes Bild. Vom erstellten FLAT zieht man ebenfalls das DARK ab. Es handelt sich aber um ein anderes DARK als beim Rohbild, da das FLAT üblicherweise nur einige Sekunden belichtet wird. In der Praxis wird für jedes FLAT ein eigenes DARK erstellt, besser sogar mehrere und diese werden mit der Bildbearbeitungs-Software gemittelt. Jetzt dividiert man das korrigierte Rohbild durch das korrigierte FLAT pixelweise und multipliziert das Ergebnis mit dem Mittelwert aller Pixel aus dem FLAT. Das Ergebnis ist das erste korrigierte Bild. Dieses ist üblicherweise noch stark verrauscht. Um das Rauschen zu verringern werden mehrere Bilder erstellt und diese überlagert. Genauso wird nicht nur ein FLAT oder DARK verwendet, sondern mehrere und diese werden gemittelt. Bei der Erstellung von Farbbildern muss diese Prozedur für jeden Farbkanal durchgeführt werden.

 

3. Grundzüge der digitalen Bildbearbeitung

Bei der Bildbearbeitung geht es im wesentlichen um 2 Punkte:

1. Die aufgenommenen (und gespeicherten) Daten sollen so dargestellt werden, dass möglichst viele Details sichtbar werden.

2. Die aufgenommen (und gespeicherten ) Daten sollen so verändert werden, dass mehr Details sichtbar werden (z.B: durch Schärfung).

 

zu 1:

Maskierungstechnik

Abb. 18.1 ... 18.7

Die einfachste Möglichkeit ist hier den sogenannten Weiss- und Schwarzpunkt zu setzen. Bei einer CCD-Kamera mit einen 16 Bit AD-Wandler sind insgesamt 216 =65536 verschiedene Graustufen darstellbar (viel mehr als der Monitor darstellen kann). 0 bedeutet hierbei schwarz und 65535 weiss. Zeigt das Bild nun einen Grauschleier im Hintergrund, so kann dieser beseitigt werden, indem der Schwarzpunkt hin zu helleren Punkten verschoben wird. Wird der Schwarzpunkt beispielsweise auf 1500 gesetzt, so werden alle Pixel, deren numerischer Bildwert < 1500 ist auf schwarz gesetzt. In Abb. 18.1 wurde der Schwarzpunkt auf 1469 gesetzt; in Abb. 18.2 auf 1321. Abb. 18.1 ist daher auch merklich dunkler. Ähnlich verhält es sich mit dem Weisspunkt. Wird der Weisspunkt auf 10000 gesetzt, werden alle Pixel, deren numerischer Wert > 10000 ist auf weiss gesetzt. In Abb. 18.1 liegt der Weisspunkt bei 27328, bei Abb. 18.2 nur bei 4224: ein Grossteil des Bildes ist daher weiß. Die Abb. 18.3 und 18.4 zeigen das Beschriebene nochmals grafisch. Die Transformationskurve verläuft in 18.4 steiler und ist daher früher in der Sättigung. Die Steigung der Kurve ist ein Maß für den Kontrast. Hier zeigt sich, dass ein erhöhter Kontrast nicht nur Vorteile mit sich bringt. Zwar werden Details im Außenbereich sichtbar, dafür gehen aber Informationen im Zentrum verloren. Bis jetzt wurde nur die lineare Übertragungsfunktion und die beiden Grenzpunkte betrachtet. Insgesamt ist dies zwar eine Verbesserung gegenüber dem Rohbildern, aber zufriedenstellend ist das Bild immer noch nicht. Entweder werden die schwachen Details in den Außenbereichen sichtbar oder die sehr hellen Bereiche im Zentrum. Beides lässt sich mit dieser Methode des Weiss- bzw. Schwarzpunktes nicht erreichen. Die hier beschriebenen Korrekturen werden auch als Tonwertkorrektur bezeichnet. Ein weiterer Forschritt lässt sich erreichen wenn die Übertragungsfunktion nicht linear bleibt sondern die Form einer S-Kurve annimmt. Die Wirkung dieser Kurve ist in Abb. 19 gezeigt. Gestrichelt ist der lineare Weiss-/Schwarzpunktabgleich eingezeichnet. Die Kurve lässt sich wie folgt interpretieren: Der Anstieg der Kurve verläuft schwächer als bei einer Geraden, d.h., der Hintergrund wird dunkler gehalten und verläuft langsamer in die helleren Bereiche. Die beiden Pfeile (A) zeigen an, um wie viel ein entsprechender Graupunkt dunkler dargestellt wird. Im oberen Bereich werden die hellen Punkte angehoben. Die Interpretation ist analog zum unteren Punkt. Insgesamt führt die Gradationskurve zu einer Anhebung des Kontrastes und vermeidet einige Nachteile der vorher beschriebenen Bildbearbeitungsmöglichkeit. Insgesamt ist aber auch diese Methode nicht ganz befriedigend.

Gradationskurve

Abb. 19 Gradationskurve in Form eines S`

Eine wirkliche Verbesserung bringt die Maskierungstechnik.

Die Abbildungen 18.5 und 18.6 stellen nochmals die beiden Abbildungen 18.1 und 18.2 dar. Mit einem Unterschied: In die Abbildung 18.6 wurde der zentrale weisse und damit überbelichtete Teil ausgeschnitten. Es scheint der hier willkürlich gewählte schwarze Hintergrund durch. Wird nun unter die Abbildung 18.6 die Abbildung 18.5 gelegt (in Abb. 18.7 dargestellt), so scheint der dort gezeigte zentrale Teil des Orion-Nebels durch. Damit im später fertigen Bild die scharfen Kanten des Ausschnitts vom Auge nicht wahrgenommen werden, werden die Kanten weich gezeichnet, d.h. leicht unscharf gemacht. Die Abb. 18.7 ist sehr grob und soll auch nur das Prinzip darstellen. Verfeinert man dieses Technik auf 5 Ebenen mit einer feineren Abstufung erhält man ein Ergebnis wie in Abb. 18.8 gezeigt. Die Basis für dieses Bild ist eine einzige Aufnahme durch einen 100 mm Refraktor bei 640 mm Brennweite. Belichtet wurde nur 60 s! mit IR-Sperrfilter auf eine ST2000 von SBIG. In der Praxis "schneidet" man nicht die einzelnen Bildteile aus, sondern maskiert diese. Daher auch der Name Maskierungstechnik. Bis hierher wurde an den Bilddaten nichts grundlegendes verändert. Es wurden lediglich die Helligkeitswerte der einzelnen Bildelemente so angepasst, dass ein Maximum an Details wahrgenommen werden kann. Für photometrische Messungen können solche Bilder allerdings nicht mehr verwendet werden, weil die Linearität der Helligkeitswerte zu Gunsten eines optimalen Kontrastes aufgegeben wurde.

 

zu 2:

Bilder schärfen

Abb. 20

Um ein vorhandenes Bild zu schärfen gibt es verschiedene mathematische Verfahren und Algorithmen. Die bekanntesten sind die unscharfe Maske und der Richardson-Lucy-Algorithmus. Mit beiden und weiteren von Software-Programmen angebotenen Verfahren ist der Autor nie glücklich geworden. Vermutlich deshalb, weil dem Anwender je nach Programm zwar Parameter zu Veränderung geboten werden, diese aber nicht beschrieben sind und es oft auf ein "Probieren" hinausläuft. Daher wird hier ein manuelles Verfahren der unscharfen Maske beschrieben, das generelle Gültigkeit hat: Ein Bild (Abb. 20 oben links) besteht aus einem scharfen und einem unscharfen Bildanteil. Wenn es nun gelingt den unscharfen Bildanteil zu bestimmen, so kann dieser vom Gesamtbild abgezogen werden und es bleibt der scharfe Bildanteil übrig. Die Kunst besteht nun darin diesen unscharfen Bildanteil zu bestimmen.

Vorgehensweise: Im ersten Schritt wird von einem Bild ein Duplikat erstellt. Dieses wird dann weich gezeichnet bzw. unscharf gemacht. Dies ist ein Versuch den unscharfen Anteil künstlich zu erstellen bzw. zu simulieren. Von diesem Bild wird dann das Original subtrahiert. Es bleibt der Scharfanteil des Bildes übrig. In der oberen Bilderreihe der Abb. 20 ist dies dargestellt. Für das Weichzeichnen wird am besten der Gaußsche oder ein benutzerdefinierter Weichzeichner verwendet. Der einzugebende Parameter ist der Radius in Pixel; ein Maß für die Weichzeichnung. Sie ist abhängig von der Unschärfe des Original-Bildes und vom gewünschten Ergebnis.

Im zweiten Schritt wird dann dieser Scharfanteil mit dem Originalbild verknüpft und als Ergebnis entsteht ein Bild erhöhter Schärfe wie in Abbildung 20 unten gezeigt. Bei dem scharfen Bildanteil handelt es sich hauptsächlich um Kanten, die hell dargestellt sind. Es liegt in der Funktion des Auges, dass Kanten besonders gut erkannt werden. Diese Eigenschaft des Auges sollte bei der Bildbearbeitung nie außer Acht gelassen werden. Über das Original-Bild wird ein (Relief-) Bild überlagert, bei dem die Kanten hervorgehoben sind. In Abb. 21 wird dies beim Sonnenrand sehr deutlich. Im vorigen Abschnitt siehe Abb. 18.7/18.8 lag die Kunst der Bildbearbeitung darin, dass die Kanten so unscharf gemacht werden, dass sie vom Auge nicht mehr wahr genommen werden können. Hier ist es umgekehrt! Ein Großteil der Aufgaben in der modernen Bildbearbeitung liegt darin entweder Kanten zu betonen oder diese unkenntlich zu machen. Bei all diesen Möglichkeiten sollten aber auch die Grenzen der Bildschärfung bedacht werden. Wird diese allzu unbekümmert eingesetzt entstehen Artefakte, also Muster die im Original nicht vorhanden sind. Dies ist aber nicht Sinn und Zweck der Bildbearbeitung. Dieser besteht darin vorhandene Details herauszuarbeiten und diese besser sichtbar zu machen.

Gradationskurve

Abb. 21

 

Glossar:

Auflösung

gibt an, daß sich zwei Punkte, die einen bestimmten Abstand voneinander haben, auflösen lassen, so daß sie einwandfrei zu unterscheiden sind.

Binning Mode

Zur Erhöhung der Sensitivität besteht die Möglichkeit, ein Pixelbinning durchzuführen. Dies bedeutet, dass auf elektronischem Weg die Ladungsinformation eines 2 x 2 Pixel umfassenden Bereiches im Ausleseregister zusammengeführt werden. Der Dynamikbereich des Chips wird hierdurch nicht erhöht. Die Auslesegeschwindigkeit erhöht sich durch die geringere Anzahl auszugebender Pixel. Das Ausleserauschen wird hierdurch nicht erhöht.

Blooming

Blooming bezeichnet den Effekt, dass senkrechte oder waagerechte Streifen von hellen Sternen ausgehen. Dies tritt dann ein, wenn das einzelne Pixel mit Elektronen voll ist und die Elektronen in andere Pixel überlaufen. Der Effekt kann bei der Herstellung des Chips durch das Anbringen eines "Anti-Blooming Gates" zwischen den einzelnen Pixeln verhindert werden.

CCD

ist die Abkürzung für Charge Coupled Device. Auf Deutsch heißt das ladungsgekoppeltes Bauelement. Verwendung finden sie hauptsächlich als Bildsensor bei Videokameras, Scannern und digitalen Fotoapparaten.

Dark Frame

Bild zum Kalibrieren der eigentlichen Aufnahme. Das Dark Frame wird bei gleicher Temperatur und mit gleicher Beichtungszeit wie die Aufnahme erstellt. Allerdings bei geschlossenem Verschluss. Der Dunkelstrom und defekte Pixel sind im Dark und in der Aufnahme und können so ermittelt und beseitigt werden.

Flat Field Frame

Bild zum Kalibrieren der eigentlichen Aufnahme. Bei dieser Aufnahme ist das Teleskop gegen eine homogen ausgeleuchtete Fläche gerichtet. Das Flat Frame zeigt die unterschiedlichen Empfindlichkeiten der einzelnen Pixel und die Vignettierung des optischen Systems an. Wird dieses Bild in die Aufnahme eingebunden, können die Fehler herausgerechnet werden. Full Well Capacity Der Wert gibt die maximale Anzahl an Elektronen an, die ein Pixel aufnehmen kann, bevor es gesättigt ist. Danach ist das Pixel "voll" und überschüssige Elektronen werden entweder über das Anti-Blooming Gate abgeleitet oder die Elektronen fließen in die Nachbarpixel und erzeugen die Blooming Streifen.

Maskieren

Mit Masken werden Bildbereiche isoliert bzw. geschützt, während Farbänderungen, Filter oder andere Effekte auf den Rest des Bildes angewendet werden. Mit Masken werden Teile des Bildes vor der Bearbeitung geschützt. Masken sind für komplizierte Bildbearbeitungen verwendbar.

Peltier-Element

Ein Peltier-Element ist ein elektrisches Bauteil, das unter Spannung ein starkes Temperaturgefälle schafft. Das Peltier- Element [auch TEC = engl: Thermo Electric Cooler, genannt] ist eine Konstruktion aus zwei mit Kupferleitstellen verbundenen Halbleiterplatten auf Keramikbasis, die aufgrund ihres unterschiedlichen elektrischen Widerstandes einen Wärmeaustauscheffekt produzieren.

Pixel

ist ein Kunstwort aus picture + element

Sampling

Ein durch seine geometrischen Dimensionen (Länge x Breite in mm) definiertes Einzelpixel ist nicht für alle Teleskope gleich effektiv. Fällt das Beugungsscheibchen genau auf einen Pixel, ist die Empfindlichkeit optimal ausgenutzt. Das gesamte Licht eines Sternes fällt auf ein Pixel. Dafür sind die Sterne eckig und es fehlen Grauanteile im Bild: Dies wird Undersampling genannt.

Ist nun die Brennweite des Teleskops so gewählt, dass das Beugungsscheibchen z.B. auf 20 Pixel fällt, so entsteht ein Grauverlauf des einzelnen Sterns und er wird schön rund. Die Kamera arbeitet aber sehr unempfindlich, weil sich das Licht eines einzigen Sterns nun auf sehr viele Pixel verteilt: Dies wird Oversampling genannt.

Critical Sampling

Bei Planeten wird immer im Oversampling-Bereich gearbeitet. Für DeepSky-Aufnahmen muss ein optimaler Bereich zwischen Over- und Undersampling gefunden werden. Die Kamera muss noch empfindlich arbeiten, die Bilder sollen aber trotzdem fein abgestuft sein. Erfahrungswerte zeigen, dass eine Auflösung von 1 ...2 Bogensekunden pro Pixel optimal sind.

Die beste Möglichkeit sich in diese Materie einzuarbeiten ist der Kontakt zu anderen Sternfreunden. Man erspart sich teilweise "tagelanges" probieren am PC. Sehr gut geeignet ist hier z.B. die Astronomie-Messe AME. Dort stellen auch viele Astronomie-Vereine aus, deren Mitglieder gerne Auskunft geben und Anfänger gerne unterstützen.

Die Sternwarte Weil der Stadt auf der AME, heftig wird über die neuesten Ergebnisse der Bildbearbeitung diskutiert.
Weitere Infos über die Astronomie-Messe: www.astro-messe.de

 

Nachtrag (Linearität von CCD-Kameras)

Linearität CCD Kamera

Linearität der ST-2000 CCD-Kamera von SBIG mit ABG:

Download Linearität Excel Sheet

 

 

Linearität CCD Kamera

Farbempfindlichkeit der SBIG ST-2000 CCD-Kamera mit Filter

Download RGB- Excel Sheet

 

Linearität CCD Kamera

Messaufbau für Linearitätsmessung bei der SBIG ST-2000 CCD-Kamera 

Beschreibung der Messung:

Die obere Abbildung zeigt den Messaufbau. Gemessen wurde hier gegen eine Kodak-Grey-Card. Im Prinzip ist dafür aber jede reproduzierbare Fläche geeignet. Zu achten ist auf homogene Lichtverhältnisse. Also nicht in einem Zimmer mit Fenster messen. Wechselnde Lichtverhältnisse von aussen (Sonne/Wolken), oder die einsetzende Dämmerung können das Messergebnis verfälschen (woher ich das wohl weiss...). Das Objektiv spielt nur eine untergeordnete Rolle. Die Fehler gleichen sich aus, da sie ja bei jeder Messung auftreten. Bei der Messung mit der kürzesten Belichtungszeit ist darauf zu achten, dass die Messung nicht im Rauschen untergeht. Im Zweifelsfall die ersten Werte besser weglassen. Die Software, hier CCD-Soft zeigt nun den Min., den Max. und den Mittelwert der Messung an. Der Mittelwert ist die Summe aller Pixelwerte, geteilt durch die Anzahl der Pixel. Diese Werte werden gegenüber der Belichtungszeit aufgetragen. Das Ergebnis kann dann in einer Excel-Tabelle ausgewertet werden. Zur Verblüffung konnte bis jetzt die immer wieder behauptete Nichtlinearität der ABG-Kameras nicht festgestellt werden.

Linearität CCD Kamera

Linearität der Starlight SXV-Kamera mit ABG, gemessen von Herrn Rolf Apitzsch

Herr Apitzsch schreibt dazu:

... habe nach dem Workshop gleich mal die Linearität der SXV vermessen. Das Ergebnis hängt an. Sie ist sogar besser als vermutet. Immerhin würde ich die Kurve bis 80% als absolut linear bezeichnen und bis 85% als "in etwa linear". Insofern verstehe ich die Verfechter der NON ABGs überhaupt nicht. ...

.bei weitern Fragen wenden Sie sich bitte direkt an Herrn Apitzsch rolf@api-star.de

Linearität CCD Kamera

Linearität der Starlight SXV-H9Kamera mit ABG, gemessen von Martin Krahn

Hallo, Siegfried!
Auf dem CCD-Workshop in Stuttgart hatte ich zugesagt, meine SXV H9 auch dem Linearitätstest zu unterwerfen – die Daten lagen nun schon einige Zeit bei mir herum, nun habe ich sie in Excel gepackt und ein bisschen bearbeitet. Ich habe das gesamte Excel-Dateipaket angehängt und kommentiere es hier ein wenig, damit du durchsteigst: Der Versuchsaufbau war im Prinzip ähnlich wie bei dir, nur war’s eine einfache graue Pappe, die ich beleuchtet habe. Zur Farbreinheit kann ich daher keine sicheren Aussagen machen, aber ich halte das auch für irrelevant. Ich habe die Beleuchtung so gewählt, dass ich nach etwa 80 Sekunden an die Sättigungsgrenze kam. Habe zwei Belichtungsserien gefahren, immer zwei gleiche Belichtungszeiten nacheinander. Bei der Betrachtung der Kurven fallen zwei Besonderheiten auf: Bei den MAX-Werten gibt es im Bereich kurzer Belichtungszeiten eine Reihe Ausreißer nach oben. Das waren Bilder mit Störungen, die ich über mein Netz im Haus reingekriegt habe und die sich als weiße Streifen zeigten. Zum Glück ist mir das nicht wieder vorgekommen – ich hatte allerdings dann auch keinen Nerv mehr, die Reihe noch mal von vorne anzufangen. Zum Glück werden die Mittelwerte von diesen (aber auch allen anderen) MAX-Werten nicht sonderlich beeinflusst, sie sind also daher ohnehin für die Frage nach der Linearität nicht so relevant. (Bei dem 8 sec – Dark habe ich übrigens auch eine solche Störung; zu den Darks: s. unten); Bei 55 und 60 sec gibt es eigenartige Unregelmäßigkeiten im Average– ich halte sie ebenfalls für Artefakte, was ich aber im Nachhinein nicht mehr beweisen kann. Der übrige Verlauf der Kurve spricht, wie ich finde, ebenfalls gegen echte Abweichungen. Weiterhin habe ich (z.T. unter Vernachlässigung der MAX-Linien) auch noch Lupendiagramme gemacht, insbesondere von niedrigen ADU-Bereichen, weil die Linearität für die Fotometrie schwacher Objekte hier ja entscheidend ist. Leider haben meine mangelhaften Excel-Kenntnisse hier zwei grafische Fehler eingebaut: Der Wert von 0,5 Sekunden ist auf der Null gelandet, der von 1,5 sec auf der 1 zusätzlich. Wenn man diese beiden Werte richtig einzeichnet, stimmt die Gerade wieder perfekt. Und wenn man diese Gerade bis zur 0 – Sekunden – y-Achse weiterzieht, landet man exakt auf den Werten, die ich mit der Mittelung einiger Bias-Werte (auch in der Tabelle 1, ganz rechts) herausgekriegt habe. Schließlich habe ich auch noch eine Serie Darks aufgetragen: Wie das Bias sind alle im gleichen Level! Für mich als Konsequenz für diese Kamera: Sie ist (ebenfalls trotz ABG-Architektur) fast ideal linear, und –was noch viel angenehmer ist- sie braucht definitiv keine Darks, allenfalls Bias (selbst dessen Wert gäbe es erst einmal noch zu bestätigen). Nicht wiedergegeben ist noch eine kleine Darkreihe, die ich direkt nach dem Einschalten der Kamera bei Zimmertemperatur durchgeführt habe, um zu sehen, wie lange die Kühlung (die man ja nicht einstellen oder überwachen kann) braucht, um ein Gleichgewicht zu erreichen: Bei 21°C Zimmertemperatur ändert sich nach 11 Minuten nichts mehr an den Werten. Nun habe ich mir keine weitere Mühe der Aufbereitung der Daten für die Internetpräsentation gegeben, nicht zuletzt, weil ich mich damit auch technisch noch ziemlich schwer tue. Du darfst diese Daten gerne einstellen – vielleicht darf ich dann einstmals dorthin verlinken. Viele Grüße, Martin Krahn

bei weitern Fragen wenden Sie sich bitte direkt an Herrn Krahn martinkrahn@web.de

Fazit: CCD-Kameras mit Anti-Blooming Gate sind bezogen auf die Empfindlichkeit linear!

 

 

nach oben