Vermutlich nicht so, wie die meisten Fotografen sich das vorstellen.
Dieser Artikel befasst sich mit zusammengefügten Vollformat-Sensoren, die auch zusammengenähte
Vollformat-Sensoren genannt werden. Englisch nennt man dieses Verfahren stitched fullframe sensors, stitched FF Sensors, butting Sensor, Stitching Sensor oder Sensor-Stitching respektive Sensor-Butting.
Zielgruppe: Der Artikel wendet sich an Fotografen und Videografen, die wissen wollen, ob ihr Sensor hochwertig aus einem Stück hergestellt wurde, respektive welche Nachteile Sensoren zeigen, die aus mehreren Teilen zusammengefügt wurden, und wie man das feststellen kann.
Auf einfache und verständliche Weise zeigt dieser Artikel mit Schaubildern auch Anfängern auf, wie (größere) Sensoren hergestellt werden.
Ein Inhaltsverzeichnis mit direkten Sprungmarken und Überblick über alle bei Allround-Stativ behandelten Themenbereiche finden Sie als Pop-Up.
Herzlich möchte ich mich bei einem Fotografen bedanken, der mich auf diesen Umstand hinwies, den er in einem Leica-Forum in den USA fand. Fast keiner meiner seit 15 Jahren hier publizierten Artikel entsteht ohne die konstruktiven Fragen derartiger aufmerksamer Fotografen.
Die Kamerahersteller sowie deren zahlreiche externe Berater zum Thema Forschung, Design und Sensorentwicklung sowie Produktion halten sehr viele Details unter Verschluss, sodass noch lange nicht alles bekannt ist.
Zwar habe ich mich seit Jahrzehnten mit der Fotografie befasst, und mich in den letzten ca. 20 Jahren sehr intensiv auch mit der digitalen Technik moderner Kameras auf diesem Internet-Auftritt in wissenschaftlichen Artikeln auseinandergesetzt. Dennoch behaupte ich nicht, alles bis in das Detail zu wissen. Wer mehr weiß, darf mir gerne seine Anmerkungen zusenden und meine Feststellungen ergänzen.
In folgendem Hilferuf (Link nicht mehr verfügbar, da Leica gegen jede Kritik mit rechtlichen Schritten vorgeht) eines Leica-Fotografen (von Ende Mai 2021) in einem Forum finden sich u.a. mehrere interessante Aussagen / Behauptungen, denen ich in diesem Artikel nachgehe:
Vollformat-Sensoren werden aus zwei Hälften hergestellt, die man miteinander verschweißt (stitched together
).
Es soll sich dabei um flächenmäßig zwei APS-C-Sensoren handeln, weil die Hersteller nicht in der Lage sind, Vollformat-Sensoren aus einem Stück herzustellen. Genauer gesagt ist die Fotomaske (reticle) des Steppers zu klein, um eine derart große Fläche in einem Arbeitsschritt auf einen Silicon-Wafer zu belichten. Angeblich liegen die maximalen Grenzen der meisten Sensor-Fabriken bei ca. 30 * 30 mm
Bei Mittelformat-Sensoren sollen es sogar mindestens 4 ca. APS-C-große Sensoren sein, die man zusammenfügt.
Im Produktionsprozess kommt es automatisch zu kaum passenden Schnittstellen, an denen die Sensorteile zusammengeklebt werden. Dadurch entstehen Übergangsprobleme. (It is impossible not to have some type of visible disturbance at the stitch boundary.
)
Diese Probleme an den Klebestellen werden durch nachgelagerte Software in der Kamera korrigiert.
Diese Probleme an diesen Nahtstellen nehmen mit zunehmender Pixelanzahl auf dem Sensor = Pixeldichte zu - vor allem bei den neuen 45 MP-Sensoren der neuen Vollformatkameras. Es zeigen sich zunehmende Übergangsprobleme (stitching artifacts
), deren Korrektur aufwändiger wird.
Kommt es zu Fehlern, werden diese oft als zwei vertikale, nebeneinander liegende Linien oder exakt in der Mitte vertikal getrennte Teilbilder sichtbar, wobei sich entweder in der Mitte ein senkrechter Streifen zeigt oder sogar unterschiedliche Helligkeiten beider Sensorhälften. Auf jeden Fall wird eine derartige Kamera aufgrund der Bildergebnisse / Bildstörungen dann in der Praxis unbenutzbar.
Der Effekt soll bei hohen ISO-Zahlen sichtbarer auftreten als bei niedrigen, weil sich auch die spaltenweise angeordneten Verstärker zwischen der linken und der rechten Seite der zwei zusammengefügten Sensorhälften unterscheiden, was zu unterschiedlichen DN (Digital Numbers) in der RAW-Ausgabe führt.
Kleine Blendenöffnungen und bestimmte Lichteinfallwinkel scheinen diese senkrechte Trennlinie in der Bildmitte deutlicher hervortreten zu lassen.
Zahlreiche Fotografen, die wie ich sehr viele Fotos je Jahr aufnehmen, hatten bereits einmal den Umstand eines derart unerklärlich zerstörten Fotos. Da sich das Phänomen jedoch extrem selten wiederholt (nach einem Ausschalten der Kamera mit Neustart tritt er meist nicht mehr auf), löscht man allerdings aus Unwissenheit der Hintergründe diese defekten Bilder und wertet den Vorgang als nicht weiter definierbares Verschlucken des Systems
. D.h. die in der Kamera nachgelagerte Korrektur der gestitchten Stelle kann auch zufällig einmal ausfallen.
Ferner scheint das Nachschärfen den sichtbaren Effekt zu verstärken.
Bereits bei der Sensor-/Kameraherstellung muss jeder Einzelfall individuell korrigiert werden (Non-Uniformity-Correction - NUC). Dies kann entweder analog im Sensor stattfinden oder digital in nachgelagerten Prozessoren. Manche sprechen hierbei auch von einem Remapping des zusammengefügten Sensors.
Bei (Hardware-) Reparaturen am Sensor werden zusätzlich extrem aufwändige Software-Korrekturen erforderlich. Da diese nicht automatisierbar sind, sondern individuell für jeden Sensor in jeder Kamera (uniquely calibrated
) durchgeführt werden müssen, führen sie faktisch dazu, dass in vielen Fällen selbst bei kleinen Schäden an z.B. vorgelagerten Gläsern nur der sehr teure Komplettaustausch des Sensors möglich ist.
Weitere Berichte zu diesem Stitching-Phänomen / den damit verbundenen Problemen finden sich z.B. unter: dem Forenbeitrag l-camera-forum, Januar 2021, ferner dem Forenbeitrag l-camera-forum, 27. Januar 2018, im DPReview-Artikel Future Full Frame Foveon looks very grim to me sowie im Fach-Artikel Large area CMOS image sensors - Kapitel 2 Large area sensors 2.1 Stitching, Journal of Instrumentation, R. Turchetta et al 2011.
These days, stitching is widely applied in the digital imaging industry. Various lithographic tools have different sizes of the reticle field of view, but in general terms, one can state that all full-format imagers (36 mm x 24 mm) or larger are stitched devices.
(Quelle.) - Heutzutage wird das Stitching in der digitalen Bildverarbeitungsindustrie häufig angewendet. Verschiedene lithographische Werkzeuge verwenden [zwar] unterschiedliche Größen des Masken-Sichtfeldes, aber allgemein kann man festhalten, dass alle Vollformat-Sensoren (36 mm * 24 mm) oder größer [(z.B. Mittelformat) aus Einzelteilen] zusammengefügte Sensoren sind.
Albert, 08. Juli 2016.
(1) Stitching technology is currently available on 180nm and 65nm platforms (both two-mask and one-mask stitching) and soon will be also available on 110nm platform.
Sowie: 1D and 2D stitching to enable large sensors up to 1 die per wafer
und Special stitching mode using two mask sets
Tower(-Jazz) CMOS IMAGE SENSORS, zum letzten Mal abgerufen am 30.11.2024. - Als Anmerkung: Die Firma TowerJazz ist einer der weltweit ganz großen Sensorhersteller.
Selbstverständlich wurden diese Aussagen neutral bei zahlreichen Informationsquellen weltweit überprüft:
Bei dem oben geschilderten Autor des Hilferufes in dem Forenbeitrag handelt es sich z.B. um den Präsidenten eines Foto-Reparatur-Dienstleisters MaxMax.com Llewellyn Data Processing (LDP LLC) in Carlstadt New Jersey, USA. Für Laien: Es handelt sich um einen Teil des Großraumes New York. Da er sich seit vielen Jahren mit der Reparatur (auch Sensor-Reparatur) von Fotokameras befasst, darf man durchaus annehmen, dass er sich damit auskennt. Ferner führte er aus, dass er Freunde in der Sensorindustrie besitzt, welche Foto-Sensoren entwickeln. Die Aussagen stammten aus Briefen von diesen Fachkräften. Das alleine ist zwar (zumindest für mich) keineswegs ein Beweis, macht als weiteres Indiz die auch von anderen mehrfach (auch in wissenschaftlichen Publikationen) wiederholten Aussagen jedoch durchaus glaubhaft. Dies gilt vor allem angesichts der vorgebrachten Bild-Beweise.
Auch alle anderen Quellen berichteten, dass dieses Phänomen / Problem ihnen (teilweise seit Jahrzehnten) bekannt sei.
Die meisten Fachleute antworteten, dass sie davon ausgehen, dass die meisten Vollformat-Sensoren, wenn nicht alle, bis heute aus mindestens zwei Teilen hergestellt werden. Der angegebene Grund ist in allen Fällen der auch oben aufgeführte, dass die Belichtungseinheiten der Stepper derartig große Sensorflächen nicht in einem Arbeitsgang bewältigen können.
Manche wiesen darauf hin, dass die früher noch viel größeren Probleme des Stitchings von Vollformat- und Mittelformat-Sensoren heute dank präziserer Verbindungs-Techniken der Sensorteile nicht mehr ganz so negativ ausfallen.
Das Problem ist bei manchen Kameras allerdings derart gravierend, dass manche Fotografen (mit IT-Erfahrung) sich dafür sogar eigene Korrektur-Software programmiert haben. - Siehe im obigen Thread Sonnar Brian. Das ist mit über 100 Zeilen ForTran jedoch nichts für Laien), denn man muss den Sensor in der Kamera-Firmware remappen oder zumindest jedes Pixel in den RAW-Dateien danach. Zumindest für Leica ist es dokumentiert. Ein Programmierer hatte für Leica-Sensoren eine eigene Reparatur-Seite dazu eröffnet. Auch dieser Link ist nicht mehr verfügbar, da Leica rücksichtslos mit allen Mitteln gegen jede Kritik vorgeht, auch wenn sie der Wahrheit entspricht.
Einige Informanten berichten, dass diese Technik Stitchen heute nicht mehr immer ein mechanisches Zusammenfügen der zwei getrennten Teile nach dem Herstellungsprozess beinhaltet, sondern oft nur noch ein mehrstufiges Passieren des Steppers auf direkt angrenzenden Flächen des Wavers. Siehe dazu unten. D.h. es handelt sich nicht (mehr immer) um zwei physisch komplett separate Chips, welche zusammengeklebt werden müssen, sondern um zwei benachbarte Sensorteile auf einem Waver, die nur elektronisch getrennt sind. - Dennoch gelten alle Einwände unten, da bei der Neupositionierung des Belichtungs-Kopfes exakt dieselben Probleme der verschobenen Positionierung auftreten können.
Andere Informanten behaupten jedoch, dass diese Stitching-Technologie sogar zunehmende Probleme bereitet, da die Pixel immer kleiner werden und die Präzision bei diesem Mehrpass-Verfahren keineswegs hoch ist. Ferner würde man die Ausbeute an brauchbaren
Sensoren (aus Kostengründen) inzwischen dadurch erhöhen, dass man großzügig Fehler in Kauf nimmt. Zur Korrektur gäbe es im Randbereich - rund um die Sensoren herum - ausreichend weitere Pixel, um Verschiebungen etc. festzustellen, zu berechnen und dann im nachgelagerten Chip auszugleichen. Solange der Stepper nur in einer Richtung versetzt wäre, würde dies auch brauchbar funktionieren. Anders sähe es jedoch aus, wenn weitere Veränderungen / Verschiebungen in der zweiten oder dritten Dimension hinzukämen.
Mindestens eine sehr verlässliche Quelle verweist darauf, dass es an der Nahtstelle zu unterschiedlichen Kapazitäten der Pixel kommen kann, die man nahe der Sättigungsgrenze der Pixel durchaus erkennt. Das erkläre ich bei den Tests weiter unten. Gemeint ist, dass man dies bei Belichtung nach rechts (ETTR) (des Histogrammes) sehen kann. Dies führt auch dazu, dass bei höherer ISO-Zahl die Sättigungsgrenze noch schneller absinkt. D.h. man erkennt den mittleren Trennstrich zwischen den zwei Sensorhälften bei hohen ISO-Zahlen oft leichter.
Auch den Programmierern von Rawdigger (einer Spezial-Software für RAW-Dateien der Firma LibRaw, LLC) sind diese Probleme der zusammengefügten Sensoren bekannt. Siehe unten.
Andere Angesprochene winden sich in der Hinsicht aus der Verantwortung, dass sie einräumen, dass dieser Fall bei sogenannten alten
Vollformat-Sensoren bekannt sei, er jedoch auf neuere (vermutlich) nicht mehr zutreffe, wobei sie alt
als mindestens bis zu 2016 auslegen.
Es finden sich sogar vereinzelte Konstruktionszeichnungen / Aufrisszeichnungen, welche die gepunktete Nahtlinie / Stitches in der Mitte im Sensor zeigen.
Insgesamt konnte jedoch aus zahlreichen Schreiben ein gewisses Unbehagen der Autoren herausgelesen werden, sich zu diesem heiklen Thema zu äußern.
Auch mir wurde deutlich gemacht, dass ich in dieser Angelegenheit mit Behauptungen sehr vorsichtig sein solle. In diesem Zusammenhang wiesen auch zahlreiche Informanten darauf hin, dass sie nicht namentlich zitiert werden wollten.
Offensichtlich scheint es sich um ein ganz heißes Eisen zu handeln, das in der Fotoindustrie tabuisiert wird. Außer mir will sich damit offenbar kaum jemand die Finger verbrennen.
Fachkräfte mögen meine stark vereinfachende Zusammenfassung der Vorgänge der Sensorherstellung für Laien bitte entschuldigen - oder mit klaren und (für Laien) verständlichen Aussagen ergänzen / korrigieren. Jeder Interessierte kann sich mit den hier im Text verlinkten weiteren Informationen über den ganzen Prozess selbst weiterbilden.
Stitching heißt ursprünglich Zusammennähen von unterschiedlichen (Stoff-) Teilen.
Ein Wafer (Wikipedia Englisch) ist zuerst einmal eine dünne Scheibe. Oft handelt es sich um kristallines Silizium, um darauf (auf diesem Trägermaterial) elektronische / integrierte Bausteine oder Fotozellen herzustellen. Deshalb wird es auch Halbleiterscheibe genannt. Meist handelt es sich um runde oder z.T. rechteckige bis (pseudo-) quadratische Scheiben mit Trägermaterial (Substrat oder Grundplatte).
In most cases stitching is used to make imagers that are larger than the field of view of the lithographic equipment used during the fabrication of the imagers.
(Quelle.) - In den meisten Fällen wird das Zusammenfüge-Verfahren verwendet, um Bildgeber [Fotosensoren] herzustellen, die größer sind als das Sichtfeld der bei der Herstellung der Bildgeber [Fotosensoren] verwendeten lithografischen Ausrüstung.
Oder: Stitching is a technology that allows the designer to fabricate an image sensor that is larger than the field of view of the lithographic equipment, still making use of reticles that fit into the field of view of that equipment.
(Quelle.) - Stitching ist eine Technologie, die es dem [Foto-Sensor-] Designer ermöglicht, einen Bildsensor herzustellen, der größer ist als das Sichtfeld [Belichtungsfeld] der lithographischen Ausrüstung, wobei dennoch [kleinere] Masken verwendet werden, die in das Sichtfeld dieser Ausrüstung passen.
D.h. Zusammennähen wird regelmäßig dann verwendet, wenn die Belichtungseinheit keine größeren Sensoren am Stück
/ in einem Belichtungsvorgang herstellen kann.
Bei Foto-Sensoren ist das Stitching seit Jahrzehnten bekannt: Tech Briefs - Stitching Produces High Resolution CMOS Image Sensors vom 28. Januar, 1999.
Notwendig war es früher vor allem, weil die Belichtungswerkzeuge für die Silizium-Wafer - oft nur sehr - kleine Sensorflächen in einem Durchgang belichten konnten.
Stellen Sie sich das so vor wie einen alten Diaprojektor, der Strukturen auf eine Leinwand (hier den Silicon-Wafer) projiziert. - Selbstredend kann man durch einen größeren Abstand des Projektors größere Flächen belichten. Aber dann werden die projizierten Strukturen dicker und meist auch unschärfer. Beides ist bei Sensoren unerwünscht. Daraus folgt, dass je nach Produktionsgerät nur Sensoren bis zu einer gewissen Größe in einem Durchgang oder am Stück belichtet werden können.
Alle mir vorliegenden Quellen zeigen eine sinnvoll nutzbare Maskenfläche von 20*20 bis maximal 30*30 mm. Daraus folgt bereits, dass damit größere Sensoren als APS-C am Stück nicht möglich sind. Dies betrifft u.a. Vollformat- und Mittelformat-Sensoren. Aber mit den kleinen Masken (alles unter ca. 25 * 16 mm) wäre noch nicht einmal ein APS-C-Sensor in einem Durchgang herstellbar. Vielleicht ist dies auch mit ein Grund, warum Canon an seiner kleineren APS-C-Sensorfläche bis heute festhält.
Beim Silizium-Wafer für die Foto-Sensoren handelt es sich um meist flach liegende Scheiben. Darauf bewegt sich ein Steppper (= Wafer-Stepper) - ein hochpräzise steuerbares Gerät, dass in Schritten (steps) jedes kleine Einzelsegment der Silizium-Scheibe rasterförmig ansteuert. Bei modernen Produktionsgeräten ist es z.T. auch umgekehrt, sodass der Belichter fest steht und die Siliziumscheibe darunter ständig neu in Schritten positioniert wird. Das Verfahren an sich ist jedoch dasselbe.
Auf diesem Stepper befindet sich quasi unser Diaprojektor, der extrem kleine Strukturen auf das Abteil des Silizium-Wafers unter der angesteuerten Stelle projiziert. Stellen Sie sich das so ähnlich vor, wie wenn ein Dia-Projektor einen schwarz-weißen Straßenplan (Fotomaske englisch Reticle) auf die Leinwand projiziert.
Im Fall des Silizium-Wafers sind die Materialien (Fotolack) darauf lichtempfindlich. D.h. sie behalten die auf sie belichtete Struktur bei.
Anschließend werden diese belichteten
Stellen dann meist weiterbehandelt, indem z.B. eine Ionisierung oder (Ab-)Ätzung und dann z.B. ein Metallauftrag stattfindet, der nur auf den belichten Strukturen haftet - oder umgekehrt nur auf den nicht-belichteten Stellen haftet.
Dieser gesamte Vorgang der Wafer-Herstellung wird auch Fotolithografie (Photolithography) genannt.
Zuerst wurde dieses Stitching nur für CCDs angewandt, später aber auch für CMOS-Sensoren - die modernen Foto-Sensoren in fast allen Kameras (Siehe z.B. The Design of a Stitched, High-dynamic Range CMOS Particle Sensor respektive das PDF).
Zusammenfassend kann man festhalten, dass ein Stepper auf einer einzigen Siliziumscheibe mehrere getrennte Foto-Sensorteile belichtet, die anschließend präzise zusammengefügt werden (müssen).
Eine Weiterführung des Stitchings ist das sogenannte Butting: Darunter versteht man die Herstellung von Foto-Sensoren, die sogar größer sind als die (nutzbare) Gesamtfläche eines Silizium-Wafers. D.h. dabei werden mehrere extrem große Teile von verschiedenen Silizium-Wafern zu einem Sensor zusammengefügt.
Um es klarzustellen: Diese Produktions-Prozesse sind derart kompliziert und kapitalintensiv, dass neben Intel und Samsung weltweit nur wenige Auftrags-Firmen sogenannte Foundries (ursprüngliche Wortbedeutung Gießereien
) das überhaupt durchführen können.
Ganz nebenbei bemerkt bildet diese Photolithography eine der Haupteinnahmequellen der großen optischen Konzerne wie Canon und Nikon, da sie viele wichtige (meist optische) Geräte für diese Produktion fast aller integrierten Schaltkreise herstellen. Das ist im Übrigen auch einer der Gründe, warum diese Konzerne nicht bankrottgehen. Siehe Zukunftssicherheit.
Da sich die Materie nicht so einfach verstehen lässt, hier ein paar Erklärungen mit Grafiken zum leichteren Verständnis.
Sofern Sie mit Ihrer Kamera und Ihrem Objektiv ein Motiv in einem Foto komplett aufnehmen können, zeigen sich auf den ersten Blick keine Probleme. Sie erhalten ein einziges Foto, das scheinbar korrekt ist. Scheinbar deshalb, weil es auch in einem Objektiv immer optische Unterschiede gibt, welche niemals eine perfekte Abbildung erlauben. Denken Sie hierbei nur an die üblichen tonnen- respektive kissenförmige Verzerrung. Ferner ist es in der Praxis unmöglich, ein Objektiv herzustellen, das von der Mitte ausgehend in alle Richtungen nach außen hin dieselben Abbildungsleistungen / Eigenschaften aufweist. D.h. es gibt immer leichte Unterschiede zwischen der linken und der rechten Hälfte, der unteren und der oberen. Sie können dazu gerne einmal eine A4-Seite eines Millimeter-Papiers (planparallel) aufnehmen und dann das Foto davon in der Software spiegeln. Dann können Sie die Unterschiede in den beiden (teiltransparenten) Ebenen jener beiden übereinander gelegten Bilder selbst erkennen.
Faktisch stören jedoch jene kleinen optischen / geometrischen Unterschiede in einem einzigen Bild den Betrachter nicht oder kaum, da er sich nicht auf jene geometrischen Unterschiede konzentriert, da sie in der Regel für die Bildbedeutung etc. irrelevant sind. Denken Sie hierbei nur an die klassischen natürlichen Aufnahmen z.B. der Landschafts- oder Porträtbereiche, wo niemals die linke mit der rechten Seite identisch übereinstimmt. Dort würde eine perfekte Symmetrie sogar unnatürlich
wirken und die meisten Betrachter stören.
Weiter verstärkt wird dieser optische vermeintlich solide Eindruck dadurch, dass die meisten Fotografen das wichtigste Element entweder in der Mitte, oder auf dem goldenen Schnitt oder maximal auf der Drittellinie nach außen platzieren - also zumindest im mittleren optisch hochwertigen Objektivbereich. Die optischen Fehler der Objektive nehmen jedoch meist nach außen hin zu. Aber exakt dort fällt dem Betrachter der Vergleich schwer: So können Sie ohne Messwerkzeuge nur versuchen, Unterschiede zwischen dem linken und dem rechten Rand des Bildes abzuschätzen. Abgesehen von Abbildungen absolut symmetrischer Motive (z.B. Architekturaufnahmen von bestimmten Schlössern usw.) ist dies in der Fotopraxis extrem schwer. Verstärkt wird dies weiter dadurch, dass man genaue Detail-Untersuchungen nur machen kann, wenn man nahe an das Bild herangeht (es am Monitor vergrößert) und dann nicht mehr den anderen Rand im Blick hat.
Fazit: Das mit einem einzigen Foto aufgenommene Motiv ist keineswegs geometrisch perfekt abgebildet. Aber die optischen Fehler fallen in der Regel nicht besonders störend auf und haben vor allem keine weiteren praktischen Auswirkungen für den normalen Betrachter.
Motiv mit einer einzigen Aufnahme festgehalten: kein optisch perfektes Abbild. Aber die kleineren internen optischen Fehler stören den Betrachter meist nicht.
Für Pixel-Peeper das große Foto bildschirmfüllend.
Beispielbild eines eindeutig minderwertigen, alten Objektives: Obwohl kein ernsthafter Vollformat-Fotograf solch ein schlechtes Objektiv verwenden würde, lassen sich selbst bei geometrischen Formen die eindeutig messbaren optischen Fehler kaum in einem Praxisfoto erkennen.
Für Pixel-Peeper das große Foto bildschirmfüllend.
Gehen wir einmal von nur zwei zusammengefügten Bildern / Sensoren aus. Dies nennt man in der Industrie 1D-Stitching. Fügt man mehrere (4+) Bilder / Sensoren zusammen spricht man von 2D-Stitching, das nochmals deutlich komplizierter wird.
Stellen Sie sich das Stitchen so vor, wie wenn Sie in einem Raum (Zimmer oder Museum) ein sehr großes Gemälde in zwei Teil-Schritten handgehalten fotografieren. D.h. Sie nehmen zwei Teile (links und rechts) auf, wobei immer überstehende Ränder im Bild vorhanden sind - das klassische Panorama-Foto.
Auch wenn Sie glauben, dass man diese zwei Teile in einer herkömmlichen Grafik-/Foto-Software leicht manuell zusammenfügen kann, so werden Sie erstaunt feststellen, dass dies fast nie funktioniert. Das liegt neben dem praktischen Verwackeln der eigenen Kamera bereits an rein theoretischen Problemen, die man nicht so einfach mit herkömmlicher Software korrigieren kann. Selbst sogenannte Panorama-Software, deren Aufgabe exakt das Zusammenfügen derartiger Teilbilder ist, scheitert in den meisten derartigen Fällen. Es sei nur auf den Nodal-Punkt hingewiesen, der handgehalten kaum präzise eingehalten werden kann.
Die Fehlermöglichkeiten sind allerdings sehr vielfältig, da sie nicht auf einer Ebene (zweidimensionale Fläche) stattfinden, sondern im dreidimensionalen Raum. Dort kommt hinzu, dass die meisten Betrachter dann erst einmal erstaunt sind, dass es sich dort nicht nur um drei Fehlermöglichkeiten handelt.
Damit die Sache nicht gleich völlig ins Unüberschaubare entgleitet, gehen wir einmal von idealen - also perfekten - optischen Systemen aus, die von der Mitte (des Objektives) ausgehend sowohl links und rechts, als auch oben und unten und vor allem in den Ecken perfekt geometrisch abbilden.
Gehen wir zur Vereinfachung zusätzlich davon aus, dass der rechte Bildteil - die rechte Bildhälfte - absolut perfekt aufgenommen wird.
Beginnen wir mit der nur vertikalen Verschiebung: D.h. die linke Hälfte des Bildes ist etwas nach oben oder unten zur rechten Hälfte verschoben.
Solange es sich um eine reine derartige Verschiebung handelt, ist dies nachträglich mit Software leicht zu korrigieren, weil es mathematisch sehr einfach und konstant ist. Sie selbst würden dies in der Fotosoftware dadurch korrigieren, indem Sie das linke Teilbild solange vertikal verschieben, bis alle Linien links und rechts an der Nahtstelle passen. Eine mathematische automatische Software-Steuerung würde faktisch auch nichts anderes machen.
Allerdings kommt es durch die Anpassung automatisch zu einer an einem Rand (oben oder unten) automatischen (zumindest kleinen) Bildverlust, da beim Verschieben Dinge wegfallen. D.h. das Gesamtbild wird kleiner. Hat man bei der Aufnahme genügend Rand darum herum gelassen (mehr aufgenommen als nötig), so kann man den Verschiebeverlust evtl. ohne Beschnitt ausgleichen.
Linke und rechte Hälfte vertikal etwas versetzt.
Für Pixel-Peeper das große Foto bildschirmfüllend.
Ein vergleichbarer Effekt tritt bei einer horizontalen Verschiebung auf. Auch diesen Standardfall kann man jedoch in der Software korrigieren, sofern genügend Rand rundherum vorhanden ist.
Dann folgt meist der etwas größere oder kleinere Abstand zum Motiv bei der Belichtung. D.h. die beiden Teilbilder wurden aus unterschiedlicher Entfernung aufgenommen. Dies führt automatisch zu unterschiedlichen Größen aller links und rechts abgebildeten Elemente.
Solange es sich um eine reine derartige Abstands-Verschiebung handelt, ist dies nachträglich mit Software durchaus zu korrigieren, weil es mathematisch überschaubar und konstant ist. Allerdings führt es automatisch zu Verlusten, da ja der größere Teil verkleinert werden muss oder der kleinere vergrößert wird. Deshalb kommt es an den Rändern zu Beschneidungen und Bildverlusten.
Da es sich um einen Verlust an drei oder sogar vier Seiten handelt (die vierte Seite ist die Schnittstelle in der Mitte), kann dieser Verlust bei weitem nicht immer oder nicht mehr so einfach ersetzt werden.
Linke und rechte Hälfte mit unterschiedlichem Abstand belichtet. Die linke Seite wurde aus einem geringeren Abstand fotografiert und ist folglich etwas größer.
Für Pixel-Peeper das große Foto bildschirmfüllend.
Danach folgt meist das Kippen oder Neigen der Kamera. D.h. die Aufnahme-Richtung verändert sich. Beginnen wir mit der vertikalen Winkelveränderung.
Solange es sich um eine reine derartige vertikale Neigungs-Verschiebung handelt, ist dies nachträglich mit Software zu korrigieren, weil es mathematisch überschaubar und konstant ist. Allerdings führt auch dies automatisch zu Verlusten, da die zu großen Teile verkleinert und die zu kleinen Bildteile vergrößert werden müssen. Deshalb kommt es an den Rändern zu Beschneidungen und Bildverlusten. Und es kommt vor allem zu einer Verringerung der Bildqualität durch die Verkleinerung und Vergrößerung. Meist macht sie sich in einem Schärfeverlust der gekippten linken Hälfte bemerkbar. Aber da sie entlang der vertikalen Verbindungslinie zum rechten Bildteil ungleichmäßig verläuft, ist sie nicht so leicht zu erkennen - stört also in der Mitte an der Verbindungskante nicht so auffällig.
Linke und rechte Hälfte mit unterschiedlicher Neigung belichtet.
Für Pixel-Peeper das große Foto bildschirmfüllend.
Noch komplexer wird es, wenn man seitlich schwenkt, weil dann die erforderlichen identischen Verkleinerungseffekte entlang der gesamten Schnittkante zum rechten Teilbild zu sichtbaren Qualitätsminderungen führen. Das fällt viel schneller auf, als die obigen nicht identischen Qualitätsveränderungen an der vertikalen Schnittkante.
Danach folgen Rolleffekte. Damit meint man Drehungen um die Mittelachse des Objektives. Daraus folgt zuerst einmal die vielen Landschaftsfotografen bei zusammengefügten Aufnahmen bekannte nicht identische Horizontlinie.
Solange es sich um eine reine derartige Rollbewegungs-Verschiebung handelt, ist dies nachträglich mit Software zu korrigieren, weil es mathematisch überschaubar und konstant ist. Allerdings führt auch dies automatisch zu Verlusten, da die zu drehenden Teile sich nicht immer ersetzen lassen. Vor allem führt jede Drehung um Werte, die von 90 Grad abweichen, immer zu Qualitätsverlusten bei der Bildschärfe etc. Je nach Umfang werden diese an der Schnittkante sichtbar.
Linke und rechte Hälfte mit unterschiedlicher Drehung um die Objektivachse belichtet.
Für Pixel-Peeper das große Foto bildschirmfüllend.
Mathematisch wirklich kompliziert wird es jedoch erst durch die Kombination all dieser Effekte. Sie können sich im Übrigen darauf verlassen, dass alle Effekte bei einer handgehaltenen Panorama-Aufnahme sichtbar auftreten. Exakt deshalb korrigieren IBIS-Systeme (der kamerainterne Verwacklungsschutz) heute auch um 5 Achsen.
Und selbst bei einer Stativaufnahme werden die meisten Fotografen nicht in der Lage sein, den seitlichen Schwenk korrekt durchzuführen, da dieser um den Nodal-Punkt zu erfolgen hat, den man bei heutigen Objektiven kaum bestimmen kann. Den korrekten seitlichen Versatz kann man sowieso nicht zu klassischen Stitchen mit einem herkömmlichen Foto-Stativ herstellen. - Alle Details zu Panorama-Aufnahmen siehe dort.
Dass modernste Software überhaupt in der Lage ist, aus diesen ganz normalen Praxis-Aufnahme-Fehlern noch ein Panorama zusammen zu stitchen, verdeutlich bereits die Komplexität und die über Jahrzehnte angesammelte künstliche Intelligenz und Computational Photography-Fähigkeiten dieser Computer-Programme. Ein Großteil des Erfolges beruht jedoch darauf, dass man sehr große Überlappungszonen der Teilfotos (meist mindestens 1/3 Überlappung) benötigt. - Exakt das ist jedoch beim Stitching von Sensoren, wie wir sehen werden, nicht möglich.
Um es vereinfachend zusammenzufassen: Die generellen optischen Fehler und Probleme eines Objektives der Kamera sind mit dem (Dia-Projektor-) Objektiv des Steppers vergleichbar. Selbstredend sind jene Objektive für die industrielle Produktion von integrierten elektronischen Bausteinen viel hochwertiger. Auch die Einstellungen und Führungen der Stepper sind viel feinfühliger und werden vor allem mit z.T. Licht- und Laser-Messmethoden justiert. Das ist weit genauer, als jeder Fotograf es manuell mit seinem Stativ selbst mit Makroschlitten / Kreuzschlitten justieren kann. Allerdings sind die mit einem Stepper abgebildeten Strukturen auch viel kleiner. Bei Halbleiterbausteinen sprechen wir heute von Leiterbahnen und Strukturen bis hinunter zum einstelligen Nanometer-Bereich. Sie wären erstaunt, wie hoch folglich der Ausschuss der fehlerhaft produzierten Waver ist, die durch minimale Abweichungen der Stepper erzeugt werden.
Die Fehlermöglichkeiten sind sogar noch größer, da es Produktionsvarianten mit einem einzigen Stepper und mit mehreren gibt. D.h. neben den Justierproblemen beim Bewegen sind auch generelle (auch optische) Unterschiede der einzelnen Stepper-Einheiten zu berücksichtigen.
Aber Stepper belichten auf Kante
. Das ist so, wie wenn Sie das zu große Motiv (z.B. Bild im Museum) mit exakt zwei Halb-Fotos bildschirmfüllend aufnehmen und die Schnittkante der beiden Hälften exakt passen müsste, weil es sonst zu sich gegenseitig beeinflussenden Überlagerungen oder sichtbaren Verlusten kommt. Früher war das bei halbseitigen Doppelbelichtungen zweier exakter Bildhälften bei analogem (Dia- oder Negativ-) Film auch so.
Bei den Belichtungen der zwei Teile auf den Waver entsteht somit bei einem irgendwie gearteten seitlichen Versatz nach außen automatisch eine Lücke zwischen den beiden Sensorhälften. Das ist zwar unschön aber mathematisch leichter verschmerzbar, da man die Lücken aus den Bildinformationen der Pixel darum herum - bis zu einer gewissen Spaltbreite - auffüllen kann.
Bei den Belichtungen auf den Waver entsteht allerdings bei einem irgendwie gearteten seitlichen Versatz nach innen - also hin zum anderen Chip-Teil - automatisch ein Überschreiben der anderen Sensorhälfte. Das ist mathematisch schwerer zu korrigieren, da hier schlichtweg andere Pixel und Elektronikbauteile zerstört werden. Letztendlich muss man diese defekten Teile (auf beiden Sensorhälften) erkennen, um sie dann einzeln auszuschalten. Macht man es sich einfach, dann schaltet man alle derart betroffenen Spalten der zwei Sensorhälften ab. Das kann jedoch bei mehreren tausend Pixeln Höhe (Zeilen) moderner Sensoren und den oben in Beispielen dargestellten Winkeln zu einer sehr großen Spaltenzahl an Verlusten führen. Danach korrigiert man die fehlenden Teile wieder durch die darum herum befindlichen Bildinformationen. Dennoch bleiben derartigen Überschreibungen mit der damit verbundenen gegenseitigen Zerstörung der Elektronikschaltkreise das größte Problem.
Das unlösbare Problem der Chip- und auch Sensorfertigung tritt jedoch selbst im Idealfall der perfekten Re-Positionierung des Steppers immer auf. Bei unseren bisherigen Betrachtungen gingen wir von idealen Objektiven aus, die exakt identische optische Eigenschaften von der Mitte in alle Richtungen besitzen. In der Praxis ist das jedoch unrealistisch. Somit unterscheiden sich immer die geometrischen Abbildungsleistungen der rechten Seite von der linken. Da nun jedoch der Stepper nur verschoben wird, stoßen im Fall der zweiteiligen Sensoren immer eine linke Kante auf eine rechte. Bereits dadurch passen die beiden Kanten der zwei Sensorteile nie exakt zueinander. Unglücklicher Weise sind diese optischen Abweichungen entlang der vertikalen Kanten jedoch nicht mathematisch konstant. D.h. unsere obigen Beispiele treffen nicht zu. Man kann also keine Formel ansetzen, um diese optischen Ungleichheiten der linken und der rechten Seite herauszurechnen. Glücklicherweise sind diese optischen Fehler - sofern man denselben Stepper verwendet - jedoch bei jeder Belichtung identisch. Daraus folgt, dass man sie einmal ermitteln muss, um sie dann generell für alle mit diesem Stepper hergestellten Sensoren anzuwenden. Bevor jetzt jedoch eine Kopier-Euphorie entsteht. Diese gemessenen regulären optischen Abweichungen des Steppers müssen dann mit den oben dargelegten mathematischen Korrekturen der Positionierfehler umgerechnet werden. Denn letztere treten zusätzlich auf.
Hinzu kommt noch ein Umstand, den man fotografisch in der Praxis hinnehmen kann: Ein zusammengefügtes Bild wird durch Anpassungen in Details unschärfer. Dies kann man durch die insgesamt größere Anzahl der Pixel der zwei Teilaufnahmen in der Panorama-Aufnahme wieder etwas aufwiegen. Gemeint ist: Ein Gesamtbild aus zwei Teilaufnahmen mit je 24 MP-Kameras wird selbst bei zahlreichen Korrekturen mindestens so scharf sein wie eine Einzelaufnahme des gesamten Motivs mit nur 24 Mega-Pixeln. Beim Stepper für die Sensorherstellung funktioniert das jedoch nicht. Unschärfen führen nicht selten zu technischen Problemen in den elektronischen Bauteilen. Man kann nicht einfach Dinge wie Leiterbahnen (durch die obigen Falschprojizierungen) größer oder kleiner herstellen. Unscharfe Stellen führen nicht selten zu Problemen im nachfolgenden Produktions-Schritt, wenn diese Stellen dann mit Metallschichten versehen werden. Das führt dann bestenfalls zu einzelnen toten Pixeln, schlimmstenfalls zu überhaupt nicht funktionierenden Sensoren.
Letztendlich potenzieren sich dies Positionierungsfehler der Stepper, da in allen mir bekannten Herstellungs-Prozessen zweistellige Repositionierungen erforderlich sind. Manche Personen berichten von über 30 derartigen Schritten bei zweiteiligen Vollformat-Sensoren. - Um sich die Problematik dieser häufigen Repositionierung zu verdeutlichen: Versuchen Sie einmal, sich derart oft in eine exakte Position zurückzubegeben und dann mit Ihrer Kamera das identische Foto aufzunehmen. Sie werden bereits bei 2-5 Repositionierungen / Aufnahmen (selbst mit einem nochmals angeblich 'genau' dorthin bewegten Stativ) erkennen, dass da nichts mehr übereinstimmt.
So it is very likely that an alignment error is visible in the two vertical pixel columns which are beside the stitching line.
(Quelle) - Somit ist es sehr wahrscheinlich, dass in den beiden vertikalen Pixelspalten, die sich neben der Verbindungs-Linie befinden, ein Ausrichtungsfehler sichtbar wird.
Butting will never ever be perfect in the sense that there will always some pixels missing between the two pieces of silicon. But in most applications, the number of lines (in Figure 3) of missing pixels is limited to a single line of pixels.
(Quelle) - Das Verbinden / Zusammenfügen [von Sensorteilen] wird niemals perfekt gelingen in dem Sinne, dass immer einige Pixel zwischen den beiden Siliziumstücken fehlen. Aber in den meisten Anwendungen ist die Anzahl der Zeilen [gemeint ist in unserem Fall vertikale Spalten] von fehlenden Pixeln auf eine einzelne Pixelzeile [hier: Pixel-Spalte je Sensorteil] beschränkt.
Da aufgrund des lithografischen Belichtungsvorganges (mechanische Präzision der Führung des Steppers im Sub-Micron-Bereich und optische Verzerrungen der Stepper-Linse in den Randbereichen) die Fehler größer sind als die lithografischen Toleranzen, entsteht beim Zusammenfügen an der Nahtstelle links und rechts je eine Spalte mit je (zumindest) einem Pixel Breite, die korrigiert werden muss. Also in der Mitte eines solchen zusammengesetzten Vollformat-Sensors befinden sich insgesamt zwei Pixelspalten (stitching artifacts
), die man mit Software nachträglich (in der Kamera) korrigieren muss.
Wie einige Fälle zeigen, scheint es jedoch bei dieser nachträglichen Korrektur vereinzelt Probleme zu geben.
Es wäre mir ein Leichtes gewesen, (nur) meine eigenen Kameras oder geliehene Kameras zu diesen Vollformat-Tests heranzuziehen.
Die Folge respektive das Problem wäre jedoch gewesen, dass sowohl viele kritische Leser als auch viele Fach-Magazine und vor allem die Fotohändler sowie Kamerahersteller definitiv die Ausrede verwendet hätten, dass gerade die von mir besessenen oder ausgeliehenen Kameras einen weltweit extrem seltenen Fehler zeigen würden, den man reparieren könne. Dann hätte man mir empfohlen, die Kameras zur Überprüfung einzusenden, was mich Zeit und Geld gekostet hätte. Danach hätte ich dieselben Phänomene wieder herausgefunden. Aber alles wäre von den daran Interessierten um Wochen oder sogar Monate verzögert worden. Letztendlich geht es bei solchen freundlichen Ratschlägen / Angeboten
nur um die Diskreditierung desjenigen, der einen derartig weitreichenden Missstand aufgedeckt hat.
Deshalb habe ich frei verfügbare Online-Testbilder einer US-Zeitschrift für verschiedene moderne Kameras verwendet.
Diese Fotos sind für jeden Interessierten sowohl als JPEG zur sofortigen Ansicht, als auch als RAW-Datei zur selbständigen Nachprüfung aller Fakten auf dem eigenen PC herunterladbar. Die voreingestellten vier modernen Kameras sind rein zufällig gewählt. Sie können über die Pull-Down-Fenster auch alle anderen jemals getesteten Kamera-Modelle einstellen.
Ferner habe ich ganz bewusst eine sehr große US-Zeitschrift mit eigenem Testlabor verwendet, die als vertrauenswürdig gilt, weil sie unter anderem die Testkriterien publiziert.
Überdies ist der Umstand wichtig, dass es sich um einen US-Anbieter handelt. Denn jedem sollte (zumindest nach meinen Ausführungen dazu) inzwischen bewusst sein, dass die Entwicklungsländer
- (EMEA) Europa, Mittlerer Osten und Afrika - nicht mit besonders hochwertiger Ware versorgt werden, sondern zunehmend sogenannte B-Ware
erhalten, während die meisten Hersteller es kaum wagen, etwas anderes als A-Ware nach dem kritischen China zu versenden, wo man sonst mit schwerwiegenden politisch-ökonomischen Strafmaßnahmen rechnen muss, oder in die USA, wo einem dank Sammelklagen drastische Geldstrafen dafür drohen.
Letztendlich ist es wichtig, dass es sich um ein weltweit bekanntes Testlabor / Test-Magazin handelt, für das alle Hersteller - aufgrund der entsprechend weltweiten Werbewirkung der gefundenen technischen Ergebnisse - ganz besonders ausgewählte und sorgfältig produzierte sowie nachträglich oft nochmals nachjustierte und optimierte Kameras handelt.
Wenn man etwas bei diesen wahrhaften Spitzenprodukten nachweisen kann, dann darf jeder einfache Fotograf davon ausgehen, dass aufgrund der heute üblichen Serienstreuung sein im normalen Handel erwerbbares Produkt qualitativ sicherlich nicht darüber liegt.
Sie können selbst testen, ob Ihr Sensor aus zwei oder mehreren Teilen besteht. Dazu finden sich diverse Verfahren.
Grundsätzlich gilt, dass im Optimalfall die software-technische Nachbearbeitung des Sensorbildes direkt in der Kamera die meisten Fehler korrigieren sollte. D.h. Im Idealfall sieht man die vertikale Trennlinie nicht oder kaum.
Dies betrifft vor allem Fotos bei denen die Blende weit offen ist, die aufgenommenen Gegenstände sehr unruhig sind (Landschaftsaufnahmen mit sehr vielen Details), das Histogramm bei weitem nicht ausgereizt wurde, oder man minderwertige Objektive verwendet.
Ferner verringern zusätzlich verwendete Filter (ND- und Polarisations- sowie die sehr beliebten UV-Filter) den Effekt, weil sie alles unschärfer machen. Überdies verringert jede Verschmutzung der Objektive, der Filter und natürlich des Sensors den sichtbaren Effekt.
Auch Aufnahmen mit der Sonne / Lichtquelle im Rücken verringern den negativen Effekt.
Ein erheblicher Anteil hat auch die Nachbearbeitung am PC. Wer kaum nachschärft, den Kontrast gering lässt und auch sonst kaum das RAW-Foto nachbearbeitet, wird den vertikalen Trennstrich oft nicht sehen.
Überdies liegt es letztendlich auch am Ausgabegerät: bei einem Ausdruck auf nur 10*15 fällt so etwas meist nicht auf. Ebenso wenig erkennt man es bei sehr Mega-Pixel-starken Kamerasensoren auf einem kleinen Monitor mit geringer Auflösung.
Um es somit klar festzuhalten: Wer auf seinen Fotos nichts sieht, hat damit noch keinen Beweis erbracht, dass er einen Vollformat- oder Mittelformat-Sensor besitzt, der aus einem Stück (ohne Stitching) gefertigt wurde.
Vor allem moderne Kameras, die eine Korrektur der Vignettierung (Randabschattung) durch das kamerainterne Firmware durchführen, können die Nahtstelle oft sehr gut kaschieren. Siehe hierzu u.a. RAW-Betrug.
Jedoch können folgende Faktoren bereits dazu führen, dass man die vertikale Trennlinie sieht:
Eine höhere Blendenzahl, die jedoch unterhalb der deutlich sichtbaren Beugung liegen sollte. Blende 8-11 ist heute durchschnittlich die Grenze dafür. Dies erhöht die Abbildungsschärfe bei vielen Objektiven.
Die Verwendung hochwertigster Objektive.
Man sollte keine weiteren Filter vor oder hinter dem Objektiv verwenden.
Man benötigt eine absolute Sauberkeit des Objektives und des Sensors.
Hilfreich ist eine möglichst monotone / gleichmäßig helle und unstrukturierte Fläche, die man belichtet: z.B. blauer Himmel oder weißes Blatt Papier.
Man sollte das Histogramm / den Dynamikumfang des Sensors bis zum Extrem ausreizen (Belichtung nach rechts), bis hin zur leichten Überbelichtung.
Verstärkt wird das Phänomen durch Gegenlichtaufnahmen, oder zumindest solche Winkel, bei denen Lichtquellen direkt in das Objektiv fallen.
Bei manchen Kameras hat auch die ISO-Zahl einen entscheidenden Einfluss, wobei oft hohe ISO-Werte den Effekt deutlicher zeigen, sofern keine drastische Rauschreduzierung bereits in der Kamera auch bei RAW stattfindet.
Durch starkes Nachschärfen des RAW-Fotos in der Nachbearbeitung am PC wird es besonders sichtbar.
Eine deutliche Kontrasterhöhung in der PC-Software fördert die Erscheinung ebenfalls zu Tage. Dies kann durch so viele Regler erfolgen, dass ich hier nur auf die wichtigsten hinweise, wie z.B.: Kontrast, Lichter, Tiefen, Weiß(punkt), Schwarz(punkt), Gradationskurve, Farbsättigung, Luminanz, Dynamik, Klarheit, Dunst entfernen ...
Ein hochwertiger großer hochauflösender Monitor mit zusätzlicher Betrachtung in der zumindest 200%- oder 400%-Ansicht ist hilfreich.
Dieser Test sollte mit jeder Foto-Software möglich sein.
Noch präziser lässt es sich mit der Software RawDigger nachweisen:
Die Firma bietet einen kostenlosen Download dieser auf jeden Fall extrem hochwertigen - und für Spezialisten sowieso empfehlenswerten - Software zum Test für einen Monat (31 Tage). Der einzige Nachteil (für Deutsche) liegt darin, dass das Programm und das dazugehörige Handbuch nur in englischer Sprache vorliegen. Eine weitere (kleine) Einschränkung liegt in den unterstützten Kameras, die nicht alle jemals verfügbaren Modelle umfassen.
Folgen Einstellungen sind in jener Software erforderlich:
File, Preferences, Data Processing, Black level: Manual anklicken und Werte so ca. zwischen 100-200 auswählen.
Vorsicht: Darunter liegt noch die mit einem Haken versehene Option: Reset Black Level values on file reload. Entfernen Sie ggf. den Haken dort. Sonst wird bei jedem neuen Foto wieder alles auf Auto (-matisch) zurückgestellt.
File, Preferences, Display Options, Override white level: 100 oder 200 oder 300 oder 500 einstellen (einfach ausprobieren).
Im Hauptmenü muss rechts oben im Kasten Display
RGB Render angeklickt sein.
Am unteren Rand des Programmes können Sie - etwas links von der Mitte - die Vergrößerung des Bildes in Prozent angeben. Je nach Monitorauflösung sollten Sie dort 100-400% einstellen und den horizontalen Schiebe-Regler so verschieben, dass Sie die Mitte des Bildes / Sensors sehen.
Sofern es sich um überbelichtete oder zumindest weit nach rechts belichtete Fotos handelt, kann man dann etwas erkennen.
Zur Klarstellung: Sofern Sie eine vertikale Linie in der Mitte auf Fotos bereits ohne derartige Einstellungen erkennen, oder sogar Helligkeitsunterschiede bis hin zu Farbveränderungen der zwei Bild-Hälften erkennbar sind, dann liegt ein massiver Fehler Ihrer Kamera vor, den man in fast allen Fällen zwingend reparieren muss.
Als Wissenschaftler fallen mir Aussagen wie alle
, immer
, nie
, keiner
sehr schwer, da jeder weiß, dass bereits ein einziges Gegenbeispiel ausreicht, um so eine weitreichende Aussage zu falsifizieren.
Ferner bin ich mir ziemlich sicher, dass in Forschungs- und Entwicklungslaboren vermutlich fast jeder Sensorhersteller zumindest einen solchen Vollformat-Sensor auch aus einem Stück bereits hergestellt hat.
Gemäß dem jetzigen Kenntnisstand kann man jedoch mit sehr hoher Wahrscheinlichkeit behaupten, dass die meisten sogenannten Vollformat-Sensoren der im Handel sich für Normalkunden (Fotografen) befindenden Versionen aus mindesten zwei Teilen zusammengefügt (gestitched) sind.
Zahlreiche Analytiker der Szene gehen allerdings davon aus, dass die früher und auch im obigen Beispiel gezeigten extremen Probleme dieser zusammengesetzten Sensoren durch verfeinerte und präzisierte Stitching-Techniken inzwischen etwas abgemildert wurden. So bleibt zu hoffen, dass die sich im Internet befindlichen Hilferufe nur noch auf alte Sensoren beziehen und es keine Probleme mit den neuen Sensoren gibt. Aber es handelt sich nur um eine Hoffnung.
Jedem Fotografen muss bewusst sein, dass das zusammengefügte Ergebnis niemals so perfekt funktionieren kann, wie ein Sensor aus einem einzigen Stück. Das ist physikalisch nicht möglich. Selbst minimalste Abweichungen in einer (der dreidimensionalen) Richtung kann sofort zu schlechteren Bildergebnissen führen, oder ein nicht perfektes Verschweißen kann mit der längeren Belastung zu Problemen an der Nahtstelle etc. führen. Von dem versehentlichen Löschen oder verstellen der individuellen Korrekturdaten in nachgelagerten Chips ganz zu schweigen.
In der Regel funktionieren unter Standard-Foto-Bedingungen die in der Kamera zwangsweise auch für RAW durchgeführten Sensorkorrekturen. Für die Sonderfälle wissen Sie nun, woran der Fehler liegt und können Gegenmaßnahmen ergreifen - auch gegen das evtl. unsinnige Gerede eines abwiegelnden Service-Mitarbeiters.
Was mich jedoch aus Marketing-Sicht beunruhigt ist der Umstand des Fehlens jeglicher Publikationen. Da es seit 2010 mit der Fotowirtschaft im Sturzflug steil bergab ging, ging das Marketing dazu über, den Fotografen Dinge anzupreisen, die für die Praxis der Fotografie unwichtig bis irrelevant sind. Man denke hier nur an die Angabe der Brutto-Zahl der Pixel auf einem Sensor, wovon doch seit jeher nur die Netto-Anzahl dann für Fotos genutzt wird. Deshalb ist es sehr unwahrscheinlich, dass man einen so wichtiges Kaufargument und Unterscheidungskriterium zu den Mitbewerbern wie die Herstellung des Vollformat-Sensors aus nur einem Teil nicht erwähnt hätte, sofern man es technisch erzeugen könnte. Das wäre ein entscheidender Wettbewerbsvorteil gegenüber allen Konkurrenten, den zumindest ich mir als Marketing-Leiter nicht entgehen ließe. Dies sollte jedem Fotografen zu denken geben.
Letztendlich führt dies auch das gesamte Gerede der Fotografen etc. ad absurdum, dass dedizierte Kameras 'echte' Bilder aufnehmen. Definitiv: Nein. Denn es sind mindesten bereits zwei Teilbilder, welche kameraintern - ohne jegliche Kenntnisse des Fotografen - irgendwie zusammengestückelt werden. Damit ist das ganze Gerede mit CAI und der angeblichen Bildauthentizität sowie unveränderbaren (also vermeintlich 'echten') Bildern bereits bei den Grundlagen der Sensoren erschüttert.
Da alle Hersteller sich bei diesem offenbar sehr sensiblen Punkt bedeckt halten, ist es sinnlos, dort anzufragen. Generell nehmen die Firmen dazu keine Stellung.
Sie dürfen die Kamera- und Sensorhersteller jedoch gerne dazu anschreiben und es selbst versuchen. Gerne drucke ich auch deren Stellungnahmen hier ab.
Handelt es sich somit um einen Betrug bei Vollformat-Sensoren?
Der juristische Tatbestand des Betruges ist meines Erachtens aus mehreren Gründen nicht erfüllt.
Faktisch wurde z.B. bis heute nicht einmal genau definiert, was ein Vollformat-Sensor überhaupt ist. Noch nicht einmal die exakte Größe in Länge und Breite oder die präzise Fläche wurde sauber definiert. Deshalb weichen fast alle Hersteller auch von dem früheren Kleinbildformat von 36 * 24 mm ab. Es ist noch nicht einmal klar, worauf sich irgendwelche Maß-Angaben in Millimeter beziehen: Auf die Bruttogröße des gesamten Sensors inklusive Verdrahtung und Randteilen zur Kalibrierung, auf die Bruttozahl der Pixel, die immer öfter bei Sensoren angegeben wird, oder die wahre Netto-Zahl der Pixel, die für ein Foto verwendet wird?
Vor allem ist die ungefähre Gesamt-Fläche der Sensorgröße ja cum grano salis vorhanden. Man hat auch niemals offiziell festgelegt, dass dies aus einem Stück Silizium zu bestehen hat.
Überdies würden die Kamerahersteller vermutlich mit ihren Rechtsabteilungen auch gegen jede derartige pauschale Behauptung mit allen Rechtsmitteln vorgehen.
Allerdings bleibt ein fahler Beigeschmack: Wenn jemand eine teure Daimler-Limousine kauft, dann erwartet er für sein Geld auch das angepriesene hochwertige Produkt und keine zwei irgendwie zusammengeschweißten Toyota Corolla.
Die üblichen Eklektiker, Fanboys und Foren-Schreiberlinge sollten bitte folgendes beachten:
Keineswegs behaupte ich, dass alle Hersteller alle Vollformat-Sensoren aus zwei Hälften zusammenfügen. Diese Frage lässt sich von mir alleine nicht abschließend klären. Deshalb bitte ich auch alle Fotografen meine Tests mit ihren eigenen Kameras nachzuvollziehen. Sie können mir die Test-Ergebnis-Fotos und / oder die RAW-Ausgangsdateien mit den Kameradaten gerne zusenden. Überdies freue ich mich über Zusendungen von eklatanten Fehlern in Fotos, die zufällig auftretend die zwei Hälften oder den vertikalen Mittelstrich zeigen.
Ferner behaupte ich nicht, dass nur Leica oder alte Leica-Vollformat-Sensoren davon betroffen sind.
Fakt ist jedoch, dass nicht nur ich dieses erstaunliche Phänomen erkannt habe. Es finden sich somit auch weitere Personen, die es sogar mit unbezweifelbaren Testfotos (siehe u.a. die Forumsbilder) belegen können.
Es besteht ein erheblicher Klärungs- und auch Erklärungsbedarf u.a. der Hersteller.
Nochmals: Es geht hier weder um eine Schelte gegen Leica noch um eine solche gegen den im Forumsthread genannten Service-Dienstleister, sondern um ein anscheinend generelles Symptom in der Produktion von Vollformat- und Mittelformat-Sensoren.
Abschließend ist dies ein erneuter Beweis, dass RAW niemals Roh-Daten - im Sinne von den Details, die jedes einzelne Pixel auf dem Sensor sieht - lieferte. Jeder Kamera-Hersteller bestimmte immer mit zahlreichen Korrekturen in der Kamera, was (welche Pixel) überhaupt als RAW abgespeichert wird.
Ferner können auch die besten Software-Werkzeuge nur das aus RAW herauslesen, was der Kamera-Hersteller hineinschreibt. Wenn z.B. die Verbindungskante zwischen den zwei Teil-Sensoren perfekt herausgerechnet wurde, dann ist sie auch für die besten RAW-Analyse-Werkzeuge nicht sichtbar. Da die Rechenleistung der Kameraprozessoren in den letzten Jahren deutlich anstieg, wurde auch die Korrektur der Sensorfehler immer hochwertiger. Daraus folgt, dass bei neuen Kameras die Nahtstelle durch eine spätere RAW-Kontrolle nicht immer nachweisbar ist. - Nochmals zum Mitschreiben: Die Sensor-Korrekturen finden vor der Abspeicherung der Fotos (auch vor RAW) statt. Sichtbar sind Fehler heute oft nur noch in extremen Lichtsituationen (Ausreißer), welche manche kamerainterne Korrektursoftware nicht perfekt korrigiert. Wirklich (störend) sichtbar werden diese Schnittstellen der Sensorteile bei modernen Kameras oft erst bei irgendwelchen (mechanischen, chemischen, optischen etc.) Veränderungen am Sensor.
Je mehr ich mich mit dem Thema Fotografie vor allem in den Tiefen der Wirtschaft und Technik befasse, umso eher fühle ich mich wie bei den Filmen Midsomer Murders / Inspektor Barnaby, bei denen am Anfang die Illusion einer heilen Welt projiziert wird und bei denen - nach einer gründlichen Untersuchung - am Ende nur ein abstoßender Scherbenhaufen übrigbleibt.
Dass man den Herstellern und vor allem deren Marketing-Abteilungen gegenüber bezüglich der Werbung vorsichtig sein muss, dürfte inzwischen hoffentlich jedem Fotografen klar geworden sein.
Allerdings muss man inzwischen wohl auch vermuten, dass die Foto-Fachzeitschriften sowie auch jene sich ständig selbst als angeblich unabhängige Influencer gerierende Stellen keineswegs die Interessen der Käufer vertreten - auch, wenn sie dies implizit so darstellen und oft sogar explizit behaupten. Ich halte es für ziemlich unwahrscheinlich, dass deren technische Redakteure und deren Testlabore nicht seit vielen Jahren um diesen hier geschilderten technischen Umstand wussten. Man darf folglich vermuten, dass sie aus kommerziellen (Eigen-) Interessen bewusst zum Stitching und den zusammengefügten Sensoren geschwiegen haben.
Interessierte finden im Folgenden weitere Anregungen zu dem Thema. Die meisten Quellen wurden bereits oben im Text direkt verlinkt.
Der Betreiber des Internet-Auftrittes Image Sensors World bietet eine Liste der Firmen, welche 2010 Foto-Sensoren herstellten. Diese Liste wurde teilweise mit neueren Daten ergänzt.
Bei der Firma xfab einem Hersteller von u.a. CMOS erhalten Sie weitere Informationen zur Sensorherstellung.
Das Netzwerk Researchgate bietet im folgenden englischen Artikel Large area CMOS image sensors ein auch direkt herunterladbares PDF zu großen Sensoren vom Januar 2011.
Die Firma XYLIS liefert im englischen Fachartikel Large dies stitching: A Technical and Cross-Functional Teams Challenge - oder direkt bei Spie Digital Library als Artikel vom 26. September 2019, Details mit weiteren Quellen.
Die Firma Tower Semiconductor ist ein großer Sensorhersteller, der als einer der wenigen Details publiziert.
Renato Turchetta beschreibt im nächsten PowerPoint-Vortrag CMOS image sensors for scientific, bio-medical and space applications. More than pretty pictures! für die Firma IMASENIC, CERN, vom 13. Dezember 2019 als PDF Details zur Sensor-Entwicklung und -Herstellung.
Jonathan Gendler, Director of Marketing, CMOS Image Sensors beim Sensorhersteller Tower Jazz liefert in der folgenden PowerPoint-Präsentation Image Sensors World auf Englisch wertvolle Einblicke in die Sensorherstellung. U.a. auf Seite 16 sehen Sie das Abbild eines damals perfekt gestitchten Sensors TowerJazz Stitching Performance -0.18um
vom Juni 2010.
Da es sich beim Stitched Sensor um ein weitgehendes Tabuthema handelt, das kaum irgendwo offen besprochen wird, bin ich über jeden Hinweis zu diesbezüglichen Publikationen dankbar, den ich auch vertraulich behandele.
Ferner bin ich dankbar dafür, wenn andere Fotografen ihre Kameras mit Vollformat-Sensoren testen und mir die RAW-Fotos und / respektive die Ergebnisfotos mit einem ggf. sichtbaren Mittelstreifen zusenden.
Überdies freue ich mich über jeden weiteren konstruktiven Hinweis zu diesem Thema. Wie gesagt: Weder bin ich ein Sensor-Designer noch bin ich perfekt, und das Thema ist sehr komplex.
Aus diesem Grund bedanke ich mich auch nochmals herzlich bei allen Beteiligten, die mir - teilweise unter dem Siegel der Verschwiegenheit - Informationen zukommen ließen und / oder mir bei der Beschaffung von Dingen und Gegenständen zu diesem Artikel behilflich waren.
Allerdings bitte ich von den (vor allem in Deutschland) üblichen E-Mails Abstand zu nehmen, die nur behaupten, Man
kann das Phänomen nicht sehen / nicht nachweisen, oder es störe ja nicht etc. Das Gegenteil haben ich und andere bereits bewiesen und oben aufgezeigt.
Überdies bitte ich von den seit Jahrzehnten widerlegten Foren-Märchen Abstand zu nehmen, die behaupten, man könne mit speziellen RAW-Analyse-Software (z.B. RawDigger) alle Einzelpixel eines Sensors direkt auslesen. - Pixel sind rein passive Fotozellen, welche Licht (Photonen) aufnehmen, keine aktiven elektronischen Bausteine, welche selbständig irgendwelche digitalen Zahlenwerte direkt in die RAW-Datei schreiben. Die Photozelle selbst weiß
noch nicht einmal, welcher Farbfilter davor angebracht ist. Da ist erst in einem Datenbank-Speicher dahinter vermerkt. Zur Erzeugung einer RAW-Datei mit (RGB-Farben oder Graustufen) ist eine nachgelagerte Software auf einem nachgelagerten Chip in der Kamera erforderlich. Beides (Software / Firmware und Chip) stammen vom Kamerahersteller respektive einem seiner vielen Zulieferer. Erst diese nachgelagerte Einheit bestimmt, was überhaupt in die RAW-Datei geschrieben wird. Roh
war da noch nie etwas, sondern zumindest Englisch
bis ziemlich Durch
.
Ferner ist eine Photozelle in Kameras eine analoge Einheit, die nur Licht in (Strom-) Spannung umwandelt. Danach kommt ein sogenannter AD-Wandler, der überhaupt erst diese analoge Spannung in digitale Zahlen konvertiert. Bereits hier kann man ansetzen und entweder eine einzelne Photozelle, oder eine Gruppe davon, oder eine ganze Spalte / Zeile des Sensors überhaupt nicht auslesen oder in digitale Werte konvertieren. Alle Details dazu sind in den folgenden Artikeln bereits ausführlich erklärt: RAW und JPEG, Moderne Objektive, RAW-Betrug.
Wer mehr weiß, darf mir gerne seine Anmerkungen zusenden und meine Feststellungen ergänzen.
Liebe Leserinnen und Leser,
damit diese umfangreichen, kostenlosen, wissenschaftlich fundierten Informationen weiter ausgebaut werden können, bin ich für jeden Hinweis von Ihnen dankbar.
Deshalb freue ich mich über jede schriftliche Rückmeldung, Fehlerkorrekturen, Ergänzungen, Neue Informationen etc. Ihrerseits per E-Mail oder Kontakt-Formular.
Um meine Neutralität zumindest auf dem hier beschriebenen Feld der Fotografie und Videografie wahren zu können, nehme ich bewusst von keinem Hersteller, Importeur oder Vertrieb irgendwelche Zuwendungen jeglicher Art für das Verfassen der absolut unabhängigen Artikel an. Auch von Zeitschriften oder Magazinen aus dem Fotobereich erhalte ich keinerlei Zuwendungen.
Deshalb freue ich mich, wenn Sie mein unabhängiges Engagement für Sie durch einen gelegentlichen Kauf bei Amazon über die hier angegebenen Links unterstützen. Es ist gleichgültig, welches Produkt Sie über diesen Link kaufen. - Es kann auch jede andere Ware außerhalb des Fotobereiches sein. Alle Preise sind und bleiben für Sie gleich niedrig, wie wenn Sie direkt zu Amazon gehen. Aber durch Ihren Klick auf meinen Link erhalte ich evtl. Monate später eine sehr kleine prozentuale Prämie (Cents je Kauf), welche mir hilft, die hohen Kosten bei der Erstellung der Artikel zumindest teilweise zu decken. - Bitte starten Sie Ihre Einkäufe bei mir.
Herzlichen Dank an alle für Ihre bisherige Unterstützung.
Ja, ich möchte die Unabhängigkeit dieser Seite unterstützen und kaufe über diesen Link bei Amazon
Pflichtangabe: Als Amazon-Partner verdiene ich an qualifizierten Verkäufen. Alle derartigen sogenannten 'bezahlten Links' zu Amazon sind farblich in Rot gekennzeichnet.
Ich wünsche Ihnen weiterhin viel Freude beim Fotografieren und Filmen.
Foto Video Design - Dr. Schuhmacher