Fakten und negative Folgen der Manipulation der Rohdaten
Dass immer mehr Kamerahersteller es in den letzten Jahren zunehmend nötig hatten, den Kunden mit Mitteln der bewussten Täuschung über den Tisch zu ziehen, wurde im Artikel der betrogene Fotokunde dargelegt.
Bereits seit mindesten 10 Jahren weise ich auf die mit den Dateiformaten RAW und JPEG verbundenen Probleme und Tricksereien hin.
Hinzu kamen die von mir nachgewiesenen Tricksereien bei modernen Objektiven.
2020 konnte ich jedoch die endgültigen Beweise finden, die einen umfassenden Betrug mit RAW-Dateien zeigen, der weitreichende Folgen zeitigen wird - für Fotografen und Hersteller.
Die zahlreichen Belege finden Sie in den beiden letztgenannten Artikeln, sodass sich sie hier der Übersichtlichkeit halber nicht nochmals aufliste.
Ist RAW wirklich roh?
Über kaum ein Thema wird seit der digitalen Revolution im Fotobereich so gestritten wie über das Dateiformat. Die Glaubenskriege zwischen Anhängern des RAW-Formates und denjenigen (angeblichen Nicht-) Fotografen, welche JPEG oder HEIF etc. verwenden, werden von keinem anderen Thema übertroffen.
Die Grundlagen der RAW-Anhänger beruhen jedoch auf der Annahme, dass die RAW-Dateien die reinen, unverfälschten Rohdaten des Sensors wären.
Neben der rein technisch-sachlichen Ebene schwingt da immer auch eine geistige, ideologische von Reinheit und Ursprünglichkeit sowie Unverfälschtheit mit.
Somit stehen sich nicht nur die technisch hochwertigeren Formate RAW (Plural, da viele herstellerspezifische RAW-Formate existieren) den minderwertigen davon abgeleiteten Dateiformaten wie JPEG gegenüber.
Es schwingt auch immer der ideologische Streit der Ursprünglichkeit, Unberührtheit der Primärquelle (RAW) gegen die von Unbekannten mit unbekannten Mitteln abgeänderten Sekundärmaterialien mit.
Trotz aller von mir zusammengetragenen Einzelbelege über die Verunreinigungen des RAW-Formates, wurde dies bisher eher verdrängt, weil sich vor allem die mächtigen Foto-Medien nicht an dieses Thema getrauten. Aber dies scheint sich zumindest in zaghaften Ansätzen zu ändern.
Fakten zu RAW
Es existiert kein RAW-Standard, sondern jeder Hersteller verwendet ein eigenes (sogenanntes proprietäres) RAW-Format.
Aber selbst dies greift zu kurz, da jeder Hersteller inzwischen mehrere RAW-Formate verwendet, sogar in einem einzigen Kamera-Modell. So findet sich heute zumindest ein unkomprimiertes RAW und ein verlustbehaftetes komprimiertes.
Bereits dies beweist unzweifelhaft, dass zumindest das verlustbehaftete komprimierte RAW definitiv nicht mehr eins zu eins die ausgelesenen Rohdaten des Sensors beinhalten kann. Verlustbehaftet heißt nun einmal per Definition, dass da Dinge weggelassen respektive zusammengefasst wurden.
Erstaunlicher Weise haben sich inzwischen alle Hersteller für diese mindestens zwei Dateivarianten entschieden.
War schon früh bekannt, dass Nikon seine Sensor-RAW-Daten erheblich manipuliert, bevor es sie in RAW-Dateien abspeichert, konnte dies durch u.a. den Star-Eating-Effekt auch bei Sony-Kameras nachgewiesen werden. Dabei werden z.B. Sterne am Nachthimmel als Rauschen einfach entfernt, bevor die RAW-Datei abgespeichert wird.
Dass Nikon bereits 2015 eine spezielle Kamera D810 A für die Astrofotografie herausbrachte, belegt diese Probleme bei den Normalkameras sogar. Auch das Modell Canon EOS Ra aus dem Jahr 2019 untermauert diesen Umstand.
Im August 2020 bestätigte das US-Fachmagazin DPReview, dass nun auch Canon (zumindest) bei der neuen R6 und auch R5 nachweislich die Fotos bereits im RAW-Modus (selektiv) rauschunterdrückt.
RAW in der Bildbewertung
Wie RAW wichtig wurde
Warum machen die Hersteller das?
Explizit schrieben Testlabore und Fachmagazine noch vor einigen Jahren (zu Recht), dass man RAW-Dateien nicht wirklich miteinander vergleichen kann, weil sowohl die Ausgangsdateien als auch die RAW-Konverter zu unterschiedlich waren.
Früher wurden Kameratests deshalb ausschließlich mit JPEG-Bildern durchgeführt. Deshalb wurden kameraintern diese sogenannten JPEG-Engines auch mit jedem Kameramodell ausgefeilter. Jedes Nachfolgemodell lieferte somit eine bessere Bildqualität, und wurde dafür von den Testmagazinen gelobt.
Die Bezeichnung bessere Bildqualität bezog sich jedoch im Klartext auf eine höhere Punktzahl bei den Messkriterien und konnte von zahlreichen Fotografen in realen Praxisaufnahmen oft nicht nachvollzogen werden.
De facto handelte es sich in vielen Fällen nur um das typische und auch aus anderen Industriebereichen bekannte Anpassen der Hersteller an die Testprozesse. D.h. die Kameras wurden zumindest bezüglich der JPEG-Bildqualität auf die Testprogramme der Fachzeitschriften optimiert. Etwas ganz Ähnliches ist z.B. in der Autoindustrie bekannt, in der jeder Hersteller auf seine nationalen Sicherheitstests und -standards bei Unfällen hin optimiert. Dadurch fallen die Testergebnisse zur Sicherheit in anderen Ländern auch anders aus. Das reicht von ein bis mehreren Sternen Unterschied in der Sicherheitseinstufung bis hin zum im Extremfall Nichtbestehen eines Sicherheitstests.
Selbstverständlich erkannten die Testlabore dies und optimierten daraufhin ihre Tests, woraufhin die Kamerahersteller wiederum ihre JPEG-Engines in den Kameras auf die neuen Testanforderungen optimierten.
In den letzten Jahren kam es jedoch zu mehreren signifikanten Veränderungen:
Die sich seit 2010 im rasanten Sturzflug befindliche Foto-Wirtschaft riss die meisten - sowieso auf den niedergehenden Print-Bereich konzentrierten - Fotofachmagazine mit in einen Überlebenskampf, bei dem es nur noch durch drastische Sparmaßnahmen den wenigsten gelang, halbwegs zu überleben.
Die Testlabore litten am meisten unter diesen Kürzungen. Viele Testlabore mussten ebenfalls drastisch sparen. Dies gelang nur dadurch, dass man auch den gesamten Aufwand für die Verbesserung der Teststandards reduzierte oder sogar einstellte. Im Klartext wurden die Testverfahren in den letzten Jahren kaum mehr oder überhaupt nicht mehr optimiert.
Aber selbst dadurch waren die meisten Testlabore nicht mehr zu retten, da die angeblich so pluralistischen Zeitschriften sich zusammentaten (oder durch Aufkauf der Verlage sowieso nur noch einem gehörten) und aus Kostengründen gemeinsam nur noch einen einzigen Test bei einem Labor durchführen ließen. Kein Scherz. Die meisten Kameratests aller Fachzeitschriften stammen heute aus ganz wenigen gemeinsam genutzten Testlaboren. Die minimalen Unterschiede der Gesamtbewertungen der Kameras in den vermeintlich unabhängigen Fachmagazinen beruhen nur auf einer (meist subjektiven) anderen Bewertung der Einzelbestandteile.
D.h. die Hersteller haben die Aufholjagd im Rennen gegen die Labore auf dem Feld JPEG schon lange gewonnen und sie in allen Disziplinen überflügelt. Den Fachmagazinen und Testlaboren blieb somit nur der Ausweg, zusätzlich die Bildqualität auf RAW zu testen.
Hinzu kam ein dramatischer Medienwandel: Immer weniger Fotografen lesen die Kameratests der Fachmagazine. Viel mehr lesen und vor allem schauen die Video-Testberichte der Influencer auf YouTube an. Letztere besitzen überhaupt kein eigenes Labor, sondern testen die Kameras nach anderen Kriterien. Vor allem handelt es sich bei diesen Fotografen auf YouTube fast ausschließlich um Anhänger des RAW-Formates, das sie zudem mit ganz wenigen RAW-Konvertern bearbeiten.
Abgerundet wird dies durch das Quasimonopol des Camera-Raw-Converters der Firma Adobe, der sich vor allem in den am weitesten verbreiteten Software-Paketen Photoshop und Lightroom befindet, sowie auch als Einzelprodukt kostenlos angeboten wird.
Deshalb war es nur eine Frage der Zeit, bis die Hersteller die vermeintliche Bildqualität des RAW-Formates als eigenes Kriterium der Kamerabewertung erkennen mussten.
Parallele zur Autoindustrie
Oligopole und Monopole helfen bei Manipulationen.
So wie es in der Autoindustrie Insidern schon lange klar ist, dass es Bosch als quasi monopolistischer Hersteller der Steueranlagen u.a. für die Einspritzung der Motoren war, der die Autohersteller auf die Idee der Manipulation brachte, so erleichterte das Quasi-Monopol bei der Sensorherstellung durch Sony dies im Kamerabereich.
Auch wenn sehr viele Fotografen mit der Kamera primär die Hardware assoziieren, so werden die meisten Abläufe darin - wie im PKW - von Software gesteuert. Diese Software mag dazu in Hardware-Bausteine gegossen werden. Es bleibt Software, die Menschen programmieren und somit verändern - oder, wenn sie es so wollen, - manipulieren können.
Damit man mich richtig versteht: Es wird hier nicht behauptet, dass die Kamerahersteller selektiv nur im Testlabor arbeitende Routinen (in der Art einer Abschaltvorrichtung) abänderten, um nur dort andere - vermeintlich bessere Ergebnisse zu erzielen. - Allerdings schließe ich dies für die Zukunft auch nicht aus, da man z.B. durch künstliche Intelligenz sehr einfach die wenigen heute noch verwendeten Testaufbauten für Studio-Aufnahmen erkennen und dann kameraseitig besonders behandeln kann.
Bisher griffen die Hersteller schlichtweg insgesamt in den Ausleseprozess der Sensordaten ein, um RAW-Daten mit dem Ziel einer höheren Bildqualität zu manipulieren.
Zuerst waren diese Effekte bei den Sensoren von Sony sowie den dort herstellenden Firmen wie Nikon erkennbar. Aber das Oligopol bei der Sensorherstellung für den System-Kamerabereich mit größeren Sensoren beschränkt sich faktisch heute auf drei große Firmen Sony, Canon und TowerJazz. Der kontinuierlich und drastisch schrumpfende Markt ist so eng und derart hart umkämpft, dass sich heute kein Sensorhersteller mehr leisten kann, diese Tricks der RAW-Manipulation nicht anzubieten und zu verwenden.
Manipulationsebenen
Was wird verändert?
Primär muss festgehalten werden, dass diese software-technischen Änderungen in der Kamera zwischen Sensor und Speicherung der RAW-Datei erfolgen.
Am einfachsten ist der sogenannte ISO-Betrug:
Hierbei wird die ISO-Zahl manipuliert.
Die meisten Fotografen glauben, dass die ISO-Zahl standardisiert sei, so wie bei einem analogen Film. Aber selbst dort waren ISO 100 nicht immer genau 100, da sich die Chemikalien sowie Fertigungsprozesse etwas unterschieden.
Bei digitalen Kameras kann man den ISO-Wert hingegen völlig frei festlegen.
Berüchtigt ist hierbei Fuji, welche in der APS-C-Klasse dreist manipulierte, um ihre physikalisch völlig unhaltbare Behauptung zu stützen, dass ein halb so großer APS-C-Sensor so viel Licht einfange wie ein doppelt so großer Vollformat-Sensor und damit dieselbe Bildqualität erzeuge.
Dies wird durch einen vermeintlich höheren ISO-Wert in der Anzeige und den Exif-Daten der Datei erzielt. D.h. die Kamera zeigt ISO 200. In Wirklichkeit ist der reale Lichtwert aber ISO 100.
Daraus folgt selbstredend ein Vergleich von Äpfeln mit Birnen. Fotos mit offiziell ISO 200 angegeben werden, die aber in Wirklichkeit doppelt so lange belichtet wurden und folglich ISO 100 entsprechen, werden dann mit Testfotos anderer Kameras mit realen ISO 200 verglichen, welche aufgrund der halben Belichtungszeit weniger Photonen aufnehmen konnten und folglich ein höheres Rauschen zeigen. Und schon wird Kamera A bei der Bildqualität besser bewertet.
Der Kunde wird vorsätzlich getäuscht, da er zur Erzielung der gleichen Bildhelligkeit doppelt so lange belichten muss, was in vielen fotografischen Situationen nicht funktionieren kann. D.h. dann muss er höhere ISO-Werte verwenden.
Letztendlich sind heute alle Sensoren technisch fast identisch. Alle Hersteller kochen mit Wasser. Wenn ein Kameramodell signifikante Qualitätsunterschiede zeigt, dann beruhen diese meist auf dieser technisch sehr einfachen ISO-Manipulation.
Als es der Testfirma DXO noch finanziell besser ging, hat sie die ISO-Manipulation in ihren Charts aufgedeckt und auch angegeben. Sie betrifft inzwischen alle Kamerahersteller, und sie wurde tendenziell mit jedem Modell schlimmer.
Danach folgt die aktive Rauschunterdrückung:
Hier kann man einerseits ziemlich unkreativ das ganze Foto vor dem Abspeichern als RAW-Datei entrauschen.
Oder man geht bei neueren Kameras ganz gezielt auf die Sensorschwächen bei bestimmten Lichtmengen ein.
Letzteres beherrscht man inzwischen sehr differenziert: So kann man höhere - unter normalen physikalischen Bedingungen - verrauschte Dämmerungs- und Nachtaufnahmen generell entrauschen. Oder man kann bei allen Lichtsituationen (also auch der ISO-Basiseinstellung der Kamera) nur die dunklen Partien in den Fotos gezielt mit einer Rauschunterdrückung behandeln.
Dass die Hersteller vor allem letzteres inzwischen bevorzugen, liegt an den Testmethoden zur Messung des Dynamikumfanges eines Kamerasensors. Viele Tester verwenden eine ziemlich einfache Testmethode der ISO-Invarianz, die überall in den Foren bewundert wird, weil viele sie nicht wirklich verstehen. Dabei wird ein in der ISO-Basis-Einstellung der Kamera aufgenommenes Foto nachträglich um 4-6 Lichtwerte aufgehellt. Das funktioniert in Lightroom (der heutigen Standardsoftware, auf die alles hin optimiert wurde) mittels Regler und gegebenenfalls zusätzlicher Pinsel-Aufhellung ganz einfach. Danach schaut man sich das Rauschen vor allem in den dunklen Bildstellen an und vergleicht es in einer direkten optischen (subjektiven) Gegenüberstellung mit anderen Kameras.
Darauf folgt die aktive Schärfung:
Hier kann man einerseits ziemlich unkreativ das ganze Foto vor dem Abspeichern als RAW-Datei schärfen.
Oder man geht bei neueren Kameras ganz gezielt auf die Sensorschwächen bei bestimmten Lichtmengen oder feinen Strukturen ein.
Letzteres beherrscht man inzwischen sehr differenziert: So kann man höhere - unter normalen physikalischen Bedingungen - verrauschte Dämmerungs- und Nachtaufnahmen generell schärfen. Oder man kann bei allen Lichtsituationen (also auch der ISO-Basiseinstellung der Kamera) die dunklen Partien in den Fotos nach der Rauschunterdrückung wieder gezielt mit einer Schärfung behandeln.
Dass die Hersteller vor allem letzteres inzwischen bevorzugen, liegt an den Testmethoden zur Messung des Randschärfe respektive der durchgehenden Schärfeverlaufes im Bild. Auch dies vergleicht man oft in einer direkten optischen (subjektiven) Gegenüberstellung von Fotos mit anderen Kameras.
Leistungsoptimierung der Objektive:
Wie ich bei modernen Objektiven bereits aufzeigte, werden die optischen Mängel nun in der Kamera behoben.
So werden u.a. die monochromatische und chromatische sowie sphärische Aberration (Abbildungsfehler eines Lichtpunktes, die zu Unschärfe oder Farbfehlern führen), Vignettierung (Randabschattung), Beugungseffekte, Streulicht, Kissen- und Tonnenverzerrung (Verformung von Geraden), Focus-Breathing (Bildwinkelveränderung beim Fokussieren bei gleichbleibender Blende) sowie Brennweiten-Atmung (Focal-Length-Breathing) bei Zoom-Objektiven in Abhängigkeit vom Motivabstand von der Kamera etc. inzwischen von Software vor der Speicherung der Datei im RAW-Format behoben.
Dadurch werden neue Objektive (und Kameras) höher bewertet - vermeintlich, weil ihre optische Leistung höher wäre. Faktisch wurde jedoch massive Software-Optimierung betrieben.
Der Laie kann den Unterschied zwischen optischer Güte und software-technisch erzeugter Bildqualität meist nicht mehr unterscheiden, da es bereits in der RAW-Datei so aussieht.
Dies erklärt unter anderem die bis in die Randbereiche nun extrem hellen und knackscharfen neuen Objektive mit Offenblenden rund um f1. Rein optisch wäre die Erzielung dieser Leistung sehr aufwändig sowie teuer und würde zu großvolumigen sowie sehr schweren Objektiven führen - weit über das heute bereits kritisierte Maß hinaus.
Geschwindigkeitsoptimierung der Kamera:
Wer sich von 10, 20, 30 Bildern in der Sekunde beeindrucken lässt, welche moderne Kameras heute im Serienbildmodus liefern können, sollte sich die Frage stellen, wie dies denn physikalisch plötzlich funktioniert.
Da kein Hersteller so nebenbei eine neue Physik erfand und auch die Prozessoren sowie Sensoren ihre Leistung nicht so schnell vervielfachen können, muss es eine andere Erklärung geben. Diese heißt verringerte Bit-Tiefe.
Um einen hohen Dynamikumfang im Bild (Extremwerte des Lichtes von Dunkel zu Hell) aufnehmen und wiedergeben zu können, wurde RAW erfunden und dessen Bit-Zahl ständig erhöht. Heute sind 14 Bit der minimal erforderliche Standard bei Vollformatkameras, wobei man bei Mittelformat schon längst auf 16-Bit übergegangen ist. D.h. man benötigt eine große Bit-Tiefe und eine damit verbundenen erhebliche Dateigröße, um einen hohen Dynamikumfang von den ganz dunklen bis zu den ganz hellen Bildstellen abbilden zu können.
Dazu benötigt man jedoch - vor allem bei steigender Mega-Pixel-Anzahl - auch extrem schnell auslesbare Sensoren sowie extrem leistungsfähige nachgelagerte Kamera-Prozessoren - und dann auch noch extrem schnelle Datenbusse in der Kamera sowie Speicherkarten.
Zwar wurden in den letzten Jahren auf allen Gebieten erhebliche Fortschritte erzielt. Aber diese reichen nur knapp aus, um die ständig steigende Mega-Pixel-Anzahl der Sensoren auszugleichen.
Daraus folgt, dass man bei höheren Bildraten je Sekunde einfach die Bit-Tiefe reduziert.
Der Effekt ist extrem: Reduziert man von den üblichen 14 Bit auf 12 Bit, dann sind dies lächerliche 2 Bit. Was soll's, werden die meisten sagen. Aber 2 Bit entspricht der 4-fachen Dateninformation. Oder mit anderen Worten: Spart man 2 Bit ein, so kann man theoretisch alles zwei- bis viermal so schnell ablaufen lassen.
Ok, ist doch gut, höre ich viele rumoren. Tja, für die Hersteller und deren Marketing-Abteilungen schon. Aber nicht für die Fotografen, die Wert auf Bildqualität legen.
Wenn sich die Datenmenge - bei 2 lächerlichen Bits weniger - um den Faktor 4 reduziert, dann haben Sie als Endanwender auch nur 1/4 der Bildinformationen. Da gehen dann in der Regel die Lichter verloren. Im schlimmsten Fall gehen auch die dunklen Stellen verloren.
Und wenn die Kamerahersteller ganz übel tricksen, dann werden nicht nur 2, sondern wie bei Sony 3 Bit eingespart - also auf 11 Bit - reduziert. Dann erhalten Sie nur 1/8 der gesamten Bildinformationen des Sensors.
Und im Extremfall wird nicht nur die Bit-Zahl reduziert, sondern - wie bei fast allen modernen Kameras - auch noch ungefragt der Rest verlustbehaftet komprimiert, wenn man die extrem schnellen Serienbildgeschwindigkeiten verwendet. Denn das spart nochmals drastisch Dateigröße, wodurch noch mehr kleine Datenpäckchen (Fotos) über den Datenbus zur Speicherkarte transportiert und dort ohne dramatische Pufferprobleme abgesichert werden können.
Nur deshalb wurde von allen Herstellern bei allen neuen Modellen das zusätzliche komprimierte RAW-Format eingeführt. Bei Speicherkarten von derzeit bis zu 512 (und vereinzelt 1024) Giga-Byte Kapazität liegt es definitiv nicht mehr am Speicherplatz der Karten.
Verlustbehaftet komprimierte RAW-Dateiformate mit drastisch geringerer Bit-Tiefe sind jedoch ein Widerspruch in sich selbst. Das war früher die explizite Definition für JPEG. Allerdings fällt dieser Widerspruch offensichtlich kaum jemandem mehr auf.
Ende 2023 bewarb Sony in seiner neuen Kamera A9III erstmals aktiv seinen seit Jahren durchgeführten RAW-Betrug, indem es die Möglichkeit herausstellte, bei der A9III mehrere RAW-Fotos in der Kamera zu einem einzigen neuen RAW-Foto zusammenzuführen, um das Rauschen zu reduzieren. Somit darf man schließen, dass das Grund-Rauschen des neuen Global-Shutter-Sensors höher lag als bei anderen klassischen Sensoren. D.h. hier wurde absichtlich getrickst, um einen Nachteil eines neuen, sündhaft teuren Sensors zu kaschieren. Darüber hinaus wurde damit jedoch auch endgültig (und zwar von einem Kamerahersteller selbst) bewiesen, dass RAW-Dateien nichts anderes sind, als alle anderen digitalen Dateien, in die man beliebiges hineinschreiben kann und die man beliebig be- sowie verarbeiten kann, bevor man sie wieder als RAW in der Kamera abspeichert.
Manipulationsziel
Warum manipulieren die Kamerahersteller nun RAW?
Manipulationen im RAW sind deshalb so effizient, weil sich - wie oben aufgeführt - sowohl die Zielgruppen der Tester als auch deren Testmethoden in den letzten Jahren gravierend geändert haben.
Fast alle testen heute neben den sowieso inzwischen bei allen Kameramodellen optimierten JPEG-Bildern, die sich aufgrund der Geschmacksanpassungen der Hersteller an die US-Kundenwünsche sowieso kaum mehr unterscheiden, vor allem RAW.
Eine hohe Bildqualität bei RAW wird inzwischen oft als das höchste Kriterium angesehen.
Dabei bewerten es alle Tester als besonders gut, wenn die Bildqualität direkt aus der Kamera in Lightroom (oder Camera RAW) importiert - ohne jegliche weitere manuelle Änderungen - bereits optimal ist.
Völlig übersehen wird dabei auch noch, dass selbstredend auch Lightroom und Camera RAW dem Anwender meist unbekannte kameramodellspezifische Optimierungen bereits vornimmt.
Wenn es einem Hersteller somit gelingt, bereits beim direkten Einladen in diese Software rauschfeie und knackscharfe Fotos bis in die Ecken zu liefern, dann wird das Modell in allen Tests und natürlich in den Foto-Foren in den Himmel gelobt.
Vor allem kann nun ja jeder Anwender die erzielten Ergebnisse zu Hause am eigenen PC nachvollziehen. Deshalb die heute von Influencern oft frei Haus gelieferten Beispielfotos zum Herunterladen im RAW oder dem TIFF-ähnlichen DNG-Format. Früher musste man hingegen immer den Testlaboren vertrauen. Jeder Fotograf erkennt in seiner (Standard-) Software den Fortschritt bei der Bildqualität.
Die Täuschung liegt allerdings darin, dass hier Hardware-Qualität durch Software ersetzt wurde.
Symbolisierter RAW-Prozess in der Kamera. Gemäß mir vorliegenden technischen Informationen lässt sich der Kamera-interne RAW-Korrektur-Prozess nicht genau in Objektiv- und Sensor-Korrektur trennen. Beides fließt ineinander.
Folgen der RAW-Manipulation
Nachteilige Folgen für die Fotografen
Somit liegen inzwischen zwei Stufen der Bildmanipulation vor: Die Fehlerkorrekturen der Objektive und die Fehlerkorrektur der Sensorschwächen. Beide Korrekturen erfolgen vor der Abspeicherung der RAW-Datei.
Dass die Kamerahersteller diese Korrekturen vor der RAW-Datei anbringen, halte ich persönlich noch nicht einmal für generell nachteilig. Das eigentliche Problem sehe ich in der nicht abschaltbaren Zwangsbeglückung.
Korrekt gelesen. Es gibt keinen Weg an der Software-Veränderung vorbei. Niemand gelangt mehr an die wahren Rohdaten des Sensors. So wird der ursprüngliche Zweck des Roh zunehmend entwertet.
Nun werden viele Kritiker einwenden, dass es doch vorteilhaft sei, wenn der Kamerahersteller einem freundlicherweise bereits die Optimierung der Fotos abnimmt.
Das mag für fotografische Laien zutreffen, die Fotos nicht wirklich nachbearbeiten wollen. Aber für diese gibt es bereits die komplett bearbeiteten Dateiformat JPEG und HEIF.
Für alle anspruchsvollen Fotografen, welche ihre Fotos individuell nachbearbeiten wollen, tritt jedoch ein gravierender physikalischer Nachteil auf: Eine bereits bearbeitete Datei lässt sich in einem weiteren Bearbeitungsschritt zwar nochmals bearbeiten. Aber die negativen Effekte jeder Stufe auf die Bildqualität verstärken sich und werden in vielen Fällen negativ sichtbar.
Um es ganz deutlich an einem Beispiel jedem klarzumachen:
Ein mittelmäßiges Objektiv, das bei Offenblende eine physikalische Vignette von 2-3 Blenden zeigt, kann in der Kamera aufgehellt werden. Dadurch wird zwar ein gleichmäßig bis in die Ecken belichtetes RAW-Foto erzeugt. Aber in den Ecken liegt bei einer angenommenen Basis-ISO von 100 bereits bei 3 Blenden real ISO 800 vor und somit signifikant mehr Rauschen.
Liegen nun in den Ecken (wie es oft am unteren Rand vorkommt) dunkle Partien, die Sie auch noch nachträglich aufhellen wollen, dann erhöhen Sie dort das Rauschen weiter. Bereits eine heute übliche Anhebung um nur 2 Lichtwerte erhöht dort das Rauschen auf sichtbare ISO 3.200.
Und ISO 100 als Basis-ISO des Bildes dürfte eher selten der Fall sein. Ein derart behandeltes Bild mit Grundeinstellung ISO 800 weist in den unteren Ecken bereits erstaunliche ISO 25.600 mit unübersehbarem Rauschen auf.
Hat die Kamerasoftware das durch die Eckenkorrektur erhöhte Rauschen durch Rauschunterdrückung und dann erforderliche Nachschärfung korrigiert, dann liegt ein wirklich ernstes Problem vor, da man nach einer bereits erfolgten Schärfung kaum mehr etwas ohne sichtbare Verluste der Bildqualität korrigieren kann. Die Schärfung sollte nämlich, immer erst als allerletzter Schritt einer Bildbearbeitung erfolgen.
Das gilt für jeden einzelnen Eingriff in die Sensordaten. Jede in der Kamera vorab durchgeführte Änderung führt faktisch zu verschlechterten Rohdaten, die in der - vor allem umfangreichen - Nachbearbeitung zu gravierenden Nachteilen führen.
Stellen Sie sich nur einmal vor, Sie wollen gezielt bei einer Aufnahme eine weiche Atmosphäre schaffen und die Software in der Kamera schärft. Dann müssen Sie diese in der Nachbearbeitung wieder rückgängig machen. Das kostet Zeit und verschlechtert die Bildqualität.
Ganz ungünstig sieht es bei der Rauschunterdrückung mit den Details aus, die dabei gnadenlos eliminiert werden, weil der Algorithmus sie als Rauschen interpretiert. Dies kann bis hin zur Säuberung des Sternenhimmels reichen. Aber generell gehen bei der Rauschunterdrückung immer Details verloren, die anschließend in der Nachbearbeitung am PC nicht mehr wiederhergestellt werden können.
Angenommen man will absichtlich gewisse Dinge an den Rändern und in den Ecken dunkler lassen, um den Blick des Betrachters auf Elemente eher im mittleren Bildfeld zu lenken (Goldener Schnitt oder Drittelregel), dann würden manche Fotografen vielleicht dunkle Büsche, Bäume, Äste etc. an den Rändern / Ecken verwenden. Falls nun die kamerainterne Software selbständig jene Bereiche zuerst aufhellt, dann rauschunterdrückt und dann nachschärft, wie sie es für korrekt erachtet, dann wird die Komposition zumindest verändert oder gar zerstört, denn die unerwünschten aufgehellten und überschärften Bildbereiche würden dann den Blick des Betrachters anziehen, vom gewünschten Bildinhalt ablenken oder schlimmstenfalls den Blick sogar aus dem Bild hinausführen. Aber der Fotograf selbst erkennt diesen Eingriff evtl. nicht vor oder während der Aufnahme im kleinen elektronischen Sucher. Und selbst wenn die Kamerahersteller ihm dies vorab im Sucher anzeigen würden: Er könnte es nicht abändern.
Viel gravierender dürfte für viele Fotografen somit der Kontrollverlust wiegen. Was für Anfänger noch als Vorteil angepriesen werden könnte, wird für ambitionierte Amateure und Berufsfotografen, die replizierbare Ergebnisse nach eigenen Vorstellungen wünschen, schwierig.
Exakt dieses Argument dürfte auch der Grund dafür sein, dass alle Hersteller diese Details entweder komplett verschweigen, oder ganz tief im Handbuch in kleingedruckten technischen Spezifikationen oder Fußnoten verstecken.
Selbst mit zunehmender Künstlicher Intelligenz werden Standardvorgaben der Tester bevorzugt. Und diese wünschen derzeit (vor allem für Video - aber nicht nur) gleichmäßig helle und gleichmäßig scharfe Bilder bis in die Ecken. Vor allem die Bildschärfe und das damit im Zusammenhang stehende Auflösungsvermögen bei Offenblende werden seit Jahren extrem hoch bewertet.
Nachteilige Folgen für die Hersteller
Es mag ja sein, dass Menschen mit einem Physikstudium eher auffällt, dass hier physikalische Grenzen mittels Software-Tricks überwunden werden. Aber irgendwann fällt dies jedem Fotografen, der ernsthaft Bilder nachbearbeitet auch auf.
Hinzu kommt, dass nicht nur ich seit ca. 10 Jahren auf diese Entwicklung Hinweise, sondern inzwischen auch andere Autoren, Influencer und Fachzeitschriften weltweit. Es mag sein, dass ich dies hier am explizitesten zusammenfasse und am pointiertesten präsentiere. Aber das Wissen darum wird sich langsam verbreiten. Der US-Präsident Abraham Lincoln soll einmal gesagt haben: Man kann einen Teil des Volkes die ganze Zeit täuschen und das ganze Volk einen Teil der Zeit. Aber man kann nicht das gesamte Volk die ganze Zeit täuschen.
Wenn die ernsthaften ambitionierten Amateure und Berufsfotografen dies erkennen, werden die Folgen für die Hersteller verheerend sein.
Die Kamerahersteller können nicht auf dem Feld der Software diese Technologieschlacht gegen Apple, Google, Huawei etc. gewinnen. Jene sind reicher, größer, mächtiger und beherrschen Software perfekt. Die Kamerahersteller können nur auf dem eigenen Optikfeld Vorteile zeigen. Das sind und bleiben die optisch überlegenen Objektive und die größeren Sensoren. Das können Smartphones rein optisch niemals. Wenn die Kamerahersteller nun ihre Optiken und Sensoren schlampig herstellen - also ihre eigenen Vorteile aufgeben - und nachträglich die teuer verkauften Billigprodukte mit Software korrigieren, verlieren sie den optischen Qualitätsvorsprung - ihren einzigen noch verbliebenen Bonus. Die Kamerahersteller verraten somit ihre eigene Kernkompetenz der Optik und geben diesen einzigen Vorteil bewusst auf.
Dies zeigte sich 2020 am neuen zusammenfaltbaren Sony-Kit-Zoom-Objektiv zur A7C (28-60 mm F4-5.6), das von allen Testern aufgrund seiner extremen und linear verlaufenden Schärfe bis in die Ecken gelobt wurde. Das Objektiv soll als Einzelprodukt 500 US$/Euro kosten. bei einem üblichen Preisverhältnis von EK/VK von 1:3 ergibt sich ein Netto-Einkaufspreis von ca. 150 Euro. Dieser entspricht dem Netto-Verkaufspreis von Sony an seine Töchter. Glaubt im Ernst jemand, dass man für diesem Betrag Forschung und Entwicklung, Material und Herstellung, Personalkosten sowie den Firmengewinn des Mutterkonzerns und aller beteiligten anderen Firmen decken kann und dabei gleichzeitig ein Kit-Zoom-Objektiv herstellen kann, das derartige extreme optische Leistungen erbringt? Dabei muss es sich um reine nachgelagerte Software-Behandlung in der Kamera handeln.
Halten wir ferner ganz sachlich fest, dass hier Software-Eingriffe in die Bilddatei vorgenommen werden, die dem Anwender nicht bekannt und nicht von ihm abschaltbar oder sonst beeinflussbar sind. Exakt das sind jedoch die Wünsche der meisten in der Fotokrise noch übriggebliebenen ernsthaften Fotografen, welche die dedizierten klassischen Fotoapparate - großvolumige, schwere und teure Geräte - kaufen.
Diese kameraintern Software-getriebenen Bildveränderungen beeinträchtigen und beschränken eine weitere Nachbearbeitung eines Fotos in erheblicher Weise. Exakt das sind jedoch die Wünsche der meisten in der Fotokrise noch übriggebliebenen ernsthaften Fotografen, welche auf sündhaft teuren PCs mit teuer Software stunden- bis tagelang ihre Fotos nach individuellen Vorstellungen nachbearbeiten.
Diese Software-Eingriffe entsprechen exakt denjenigen der Smartphones mit ihrer Computational Photography und zielen auf diese dem klassischen Fotobereich bereits verloren gegangenen über 100 Millionen jährliche Käufer ab, die sowieso nicht mehr zu dedizierten Kameras zurückwechseln wollen.
Wenn diese dem Anwender unbekannte und unbeeinflussbare software-getriebene Bildoptimierung bei dedizierten Kameras von den Herstellern weitergetrieben wird, ist die Entwicklung absehbar: Langsam aber sicher wird auch dem verbliebenen treuen Rest der Kunden der klassischen Kameras aufgehen, dass sich Ihr gigantischer Aufwand nicht mehr lohnt: weder körperlich, noch zeitlich noch finanziell. Denn kaum jemand bezahlt fünfstellige Summen für mittelmäßige Kameras und mittelmäßige oder sogar defekte Objektive, die man nachträglich in der Kamera mit Software aufpäppelt. Das kann ein Smartphone für 1.000 Euro auch. Und noch vieles mehr. Dann werden auch jene bisher noch treuen Fotografen zu einem modernen Smartphone greifen.
BMW erkannte bereits vor Jahrzehnten, wie wertvoll - weil treffend - der Slogan Freude am Fahren ist. Fuji setzte es beim Retro-Layout vieler Kameras erfolgreich um, und ich schreibe unter viele Artikel sowie E-Mails Viel Freude beim Fotografieren. Die Kamera-Hersteller sollten diesen Aspekt nicht aus den Augen verlieren. Sonst werden viele bisher treue Kunden die Konsequenzen ziehen.
Da offensichtlich viele Fotografen diese Software-Manipulationen nicht nur gerne akzeptieren, sondern - wie sie mir schreiben - sogar wünschen, sollten die ernsthaften Fotografen, welche die Kontrolle über ihre Kamera behalten wollen, zumindest fordern, dass man diese derzeitige Zwangs-Maßnahmen als erfahrener Fotograf auch an der Kamera wieder abschalten kann.
Nachtrag
Angesichts eines überlaufenden Postfaches kann ich festhalten, dass dieser Artikel wieder einmal einen wunden Punkt traf.
Diesmal haben mich besonders viele Canon-Anhänger angeschrieben, die das nicht wahrhaben woll(t)en. Somit habe ich nach meinen - auf Fakten beruhenden - überwiegend guten Bewertungen der R5 und R6 auch von dieser Seite wieder einmal Prügel beziehen dürfen. Denn bei der R5 und R6 wurden einige dieser hier beschriebenen Effekte nachgewiesen und in den USA auch von einer Fachzeitschrift mit Belegen publiziert.
Da ich viele Einwände durchaus nachvollziehen kann, will ich einige hier pauschal beantworten.
Selbstverständlich ist es in manchen fotografischen Situationen ausreichend, auch nur mit 11 oder 12 Bit-RAW im komprimierten Modus aufzunehmen. 20 scharfe Sportaufnahmen mit 12 Bit, die einem den perfekten Moment auf einem Bild wiedergeben sind für beruflich tätige Sportfotografen, die sowieso nur in Zeitungen auf mäßiger Papierqualität publizieren, definitiv höher zu bewerten als ein 14-Bit-Foto, das zwar mehr Details in den Lichtern und Schatten zeigt, aber knapp neben dem sportlichen Höhepunkt liegt.
Selbstverständlich sei es auch jedem Fotografen zugestanden, dass ihm z.B. in der Nacht bei hohen ISO-Zahlen oder für rein dokumentarische Zwecke komprimierte 11 oder 12-Bit-RAWs oder selbst JPEG ausreichen. Auch mir reicht das in einigen Situationen aus.
Aber bitte bedenken Sie auch, dass es Fotografen gibt, die im Bereich Vollformat für eine hochwertige Kamera und einen Satz hochwertiger Objektive fünfstellige Summen ausgeben - nicht selten ihre Ersparnisse -, um immer die maximale Bildqualität zu erhalten. Die wird ihnen zunehmend vorenthalten.
Das ist wie die Frage nach der Mega-Pixel-Zahl. Es mag sein, dass vielen Fotografen 20-24 MP in vielen Situationen ausreichen. Aber manche Enthusiasten wollen bewusst 45-60 MP. Und diese wollen in der Regel dann auch die 14 Bit RAW unkomprimiert, verlustlos und unvorbehandelt.
Bitte verfallen Sie auch nicht dem Standardfehler im Internet: Ziehen Sie keine veralteten Artikel über veraltete Sensoren in veralteten Kameras mit veralteten (teilweise noch analogen) Objektiven als Beweis dafür heran, dass man angeblich etwas nicht sieht oder sehen kann. Die Hardware-Technik ist vorangeschritten. Das Problem scheint nur zu sein, dass die realen (sichtbaren) Fortschritte den sich in der Existenzkrise befindenden Kameraherstellern und vor allem deren Marketing-Abteilungen nicht mehr ausreichen.
Ebenso subjektiv ist es, das Standardargument der Foto-Foren zu wiederholen: Das kann sowieso kein Mensch sehen / unterscheiden etc.
Jedes Mal, wenn ich solche Dinge nachprüfte, dann stellte sich ein ganz anderes Grenzkriterium heraus. Entweder war die Person mit einer Brille und / oder Augenleiden versehen, und / oder arbeitete an einem kleinen Medium mit geringer Auflösung bei unergonomischer Beleuchtung.
Als ich als junger Student in der Zeit der monochromen Monitore (Bernstein oder grüner Schrift auf schwarzem Grund) per Zufall die Inbetriebnahme des ersten 16-Farben-Farbmonitors an unserer Universität miterlebte, sagten die Techniker, dass kein Mensch jemals mehr Farben braucht. Als ich dies am Abend stolz meiner Mutter erzählte, lächelte sie nur und beschämte mich mit einer Dahlie aus unserem Garten. Diese besaß mindesten tausende an Farbnuancen und multiplizierte diese Farben je nach Lichteinfall. In den kommenden Jahren hörte und las ich dieselben Aussagen bei 256, bei 1024, bei 16.000 Farben. Als irgendwann die 8-Bit-Grafikkarten (gemeint ist 8 Bit Farbtiefe je Farbkanal RGB = 24 Bit insgesamt) 16,8 Millionen Farben erzeugten, entstand eine weltweite Diskussion darüber, dass kein Mensch angeblich jemals diese Farben unterscheiden oder erkennen könnte. Heute besitzen Grafikkarten meist 12-16 Bit Farbtiefe (je Farbkanal) = 48 Bit insgesamt (Deep Color). Windows unterstützt bereits standardmäßig 24-32 Bit Farbtiefe. Aber die definierten Farbräume umfassen noch immer nicht annähernd den natürlichen Farbraum. Deshalb prophezeie ich, dass es so lange eine technische Verbesserung geben wird, solange Menschen in der Natur mehr Farben erkennen als auf dem Monitor.
Es mag ja sein, dass manche Fotografen an ihrem kleinen, nicht kalibrierten, alten Full-HD-Monitor kaum Unterschiede erkennen können. Halten wir sachlich fest, dass bereits ich an einem großen 8K-Monitor/-Fernseher vieles unterscheiden kann, dass ich an einem High-Dynamic Range-TV/-Monitor noch viel mehr unterscheiden kann sowie, dass andere Fotografen noch viel bessere Augen besitzen als ich. Hinzu kommen Fotografen, die sehr schöne Fotos wirklich groß (auf Quadratmeter) aufziehen.
Erst wenn man das Bessere gesehen hat, erkennt man, wie schlecht das bisherige Gute war.
Am besten wird dies dann noch mit dem Totschlagargument der Fotografie begründet: Die Nyquist-Formel würde es belegen, dass man keinerlei Unterschiede erkennen kann. - Die Nyquist-Grenze ist für das menschliche Sehvermögen nun wirklich nicht die Bezugsgröße. Die sogenannte Nyquist-Grenze ist ferner keine absolute physikalische Grenze, die man nicht überschreiten kann. Ketzerisch ausgedrückt besagt sie sogar das Gegenteil: Je mehr Aufwand man betreibt, desto mehr Details kann man erkennen. Dies wurde - welch Wunder - von den Kameraherstellern in den letzten 20 Jahren der digitalen Fotografie auch bewiesen. Deshalb sollte sich jeder fragen, warum man stets höher auflösende Sensoren mit größerem Dynamikumfang herstellt? Samsung plant winzige 600 MP-Sensoren für seine Smartphones. Das wäre alles völlig sinnlos, wenn die Nyquist-Grenze alles bereits bei 24 MP und 11 oder 12 Bit bei großen Vollformat-Sensoren unmöglich macht. Im Übrigen wurde dieses (von vielen missverstandene oder bewusst falsch verwendete) Totschlagargument bereits vor weit über einem Jahrzehnt bei 6 MP und bei 12 MP vorgebracht, weil angeblich niemand mehr als 6 MP Auflösung oder damals sogar nur 6 Blenden Dynamikumfang (der damaligen durchschnittlichen Papierausbelichtung) wahrnehmen könne.
Qualität ist subjektiv: Wer sagt, dass er einen Unterschied nicht erkennen kann, sagt nur etwas über sich und seine Geräte respektive seine Betrachtungsumgebung (Rahmenbedingungen) aus.
Um es technisch klar zu formulieren: Die technische Hürde / Grenze des Dynamikumfanges ist derzeit die Brunnentiefe (Well-depth) der einzelnen Pixel auf dem Foto-Sensor. Sie gibt vereinfacht ausgedrückt an, wie viele Photonen gezählt werden können, bevor der Brunnen überläuft und alles als überbelichtet ausfrisst. Kann sie angehoben werden, dann könnte man evtl. sogar mit 32 Bit-Dateien an die Grenze stoßen. In Laboren existieren zwar bereits Lösungen dafür, die jedoch bisher nicht marktreif wurden. Und wen es interessiert, es finden sich ganze Grafikpakete, die bereits heute mit 32-Bit-Dateien arbeiten. (Vermutlich auch, weil kein Mensch es braucht oder sieht.) 14-16 Bit-Dateiformate (je Farbkanal) sind bei digitalen Kameras des Massenmarktes aktueller Standard. 11-12-Bit liegt signifikant darunter. Aber noch nicht einmal die Zahl ist das Problem, sondern die Richtung: Die Kamerahersteller reduzieren derzeit die Bildqualität, während die ganze technische Welt sie erhöht. - 11-12 Bit-RAW bieten manche Smartphones seit 2017. Und sie werden in den kommenden Jahren noch wesentlich mehr bieten. Denn für deren CPUs, GPUs und NPUs sind 16 Bit heute schon lächerliche Werte.
Man sollte sich auch vor der im Internet verbreiteten Analogie zwischen Audio und Video hüten:
In der Tat gab es um die Jahrtausendwende Versuche, die anhand der damaligen Audiogeräte nachwiesen, dass man das Gehör vieler Menschen durch höchstwertige MP3 (verlustbehaftetes Kompressionsformat für Musik) gegen CD-Qualität austricksen konnte.
Aber das lag auch an den Rahmenbedingungen der damaligen Studiotechnik. Inzwischen finden sich ganz andere Audiogeräte die sogar den Unterschied der CDs gegenüber noch hochwertigeren SACDs etc. aufzeigen können.
Dennoch gab und gibt es Menschen, welche in der Natur aus einem echten Orchester von über 100 Musikern sogar das eine Instrument heraushören, das zu langsam oder zu schnell, zu laut oder zu leise, zu hoch oder zu tief spielt, oder minimal verstimmt ist etc.
Wer dieses abgedroschene Argument des MP3-Vergleiches jedoch immer wieder bei der Fotografie vorbringt, zeigt letztendlich damit nur, dass er die gravierenden Unterschiede zwischen Akustik und Optik sowie dem Hörsinn und dem Sehsinn nicht kennt.
Neben jenen wissenschaftlich unhaltbaren Vergleichen sind es vor allem die Verbalattacken in den E-Mails, welche zeigen, wie verunsichert die Fotografengemeinde inzwischen ist. Das ist ein ganz schlechtes Zeichen für die Kamerahersteller. Denn dafür sind die Firmen selbst verantwortlich.
Auch direktes oder indirekte Ableugnen hilft den Fotografen wenig: Nur, weil man etwas nicht versteht, oder nachvollziehen kann, oder verstehen und nachvollziehen will, verschwindet es nicht. Fakt ist, dass inzwischen viele Fotografen weltweit diese Effekte der RAW-Manipulation bei modernen System-Kameras nachweisen können.
Ferner besteht ein erheblicher Unterschied zwischen den oft vermischten Äußerungen man erkennt keinen Unterschied und der Unterschied ist einem nicht wichtig, weil man die höhere Qualität nicht benötigt.
Überdies ist es ein Widerspruch in sich selbst, wenn man behauptet, dass man den Unterschied kaum sieht, nur selten sieht, oder er nun unter manchen Bedingungen auffällt. Die Autoren geben damit selbst zu, dass er a) vorhanden ist und, dass sie ihn b) sogar selbst bemerken.
Die immer wieder vertretene Meinung, dass es doch im Grunde gleichgültig ist, wie die wahrgenommene Bildqualität zustande komme, ist legitim. Allerdings handelt es sich dabei um die Position der Smartphone-Hersteller. Wer deren Meinung vertritt, wird sich irgendwann selbst die Frage stellen, warum er dazu den hohen Aufwand mit dedizierten Kameras treibt, und letztendlich auch zu Smartphones wechseln. - Das ist ein schlechtes Zeichen für die Kamerahersteller, da es meine ökonomische These belegt, dass es keine Bodenbildung geben wird, sondern sich der Aderlass bei klassischen Kameras langfristig fortsetzt.
Die Kamerahersteller haben einen langfristig gefährlichen Weg beschritten: Hinter den Tricks zur Senkung der Bildqualität steht vermutlich die Annahme oder Hoffnung, dass die meisten Fotografen es nicht bemerken werden. Während die Smartphone-Hersteller ständig mit allen Mitteln die Bildqualität der kleinen eingebauten Kameras erhöhen, senken die Hersteller der dedizierten Kameras - zumindest auf Teilgebieten - ihre Bildqualität ab. Vor allem widerspricht es der eigenen Marketing-Strategie, die zu Recht anführt, dass die signifikant hochwertigere Optik und die physikalisch durch die größere Sensorfläche bedingte größere Lichtaufnahmen mit damit verbundenem geringerem Photonen-Rauschen die beiden großen Vorteile der dedizierten Kameras darstellen, weil sie reale = optische Bildqualität durch hochwertigere Hardware erzeugt. Bisher konnte man gegen Smartphones anführen, dass jene nur eine virtuelle oder artifizielle Bildqualität durch Computational Photography und Künstliche Intelligenz herstellt, indem sie ihre kleinen, minderwertigen Optiken und Sensoren durch Software-Tricks aufhübschen. Im existentiellen Konkurrenzkampf gleichen nun die Kamerahersteller ihre Methoden - ohne Not - nach unten an die der Smartphone-Hersteller an. Ob das gut gehen kann, darf bezweifelt werden.
Fakt ist, dass seit Jahren die Manipulationen am RAW-Format zunehmen. Kleinere Korrekturen gab es schon immer, worauf ich im Artikel RAW und JPEG hinwies. Das Kernproblem war jedoch bereits vor 10 Jahren: Wer den Anfängen nicht wehrt, wird weitere Tricks geradezu provozieren. Die Hersteller erkannten damals, dass es geht. Also schritten sie kontinuierlich voran. Aber in den letzten Jahren erhielt dieses Thema eine ungeahnte Dynamik und betrifft inzwischen Bereiche, welche für viele ambitionierte Fotografen wichtig sind.
Erschwerend kommt hinzu, dass es sich um selektive Änderungen am Bild handelt, die zudem auch noch von weiteren Rahmenbedingungen abhängen (wie z.B. der eingestellten ISO-Zahl). D.h. solange Fotografen nicht die in die Software eingegebenen Wenn-Dann-Klauseln kennen, können sie nur raten, wann was wo und wie verändert wird. - Im Klartext: Das identische Foto bei ISO 800 kann völlig anders aussehen als das bei ISO 100, weil einmal stark sichtbar und das andere Mal kaum oder gar nicht wahrnehmbar eingegriffen wird.
Zwar ist es verständlich, dass mich Fotografen bitten, aufzuzählen, welche Hersteller mit welchen Modellen welche RAW-Manipulationen betreiben. Aber das kann ich aus folgenden Gründen hier nicht leisten:
Ersten ist dies ein Überblicksartikel. Wie ich in der Einleitung oben schrieb, finden Sie Details u.a. bei RAW und JPEG.
Zweitens handelt es sich um Software - Firmware in der Kamera -, die jeder Hersteller jederzeit für jedes Modell ändern kann.
Exakt dies ist das Hinderliche: Selbst, wenn es einem Fotografen in sehr viel Kleinarbeit gelänge, alle Manipulationen an seiner Kamera bei jeder Einstellung mit jedem Objektiv zu ermitteln, so könnte sich das daraus resultierende Ergebnis dennoch mit dem Einspielen des nächsten (erforderlichen) Firmware-Updates ändern.
Die Hersteller sind somit dabei, die wichtigste praktische Errungenschaft der digitalen Fotografie aufs Spiel zu setzen: die steile Lernkurve für jedermann. Wenn man nicht mehr vorausberechnen kann, wie das gewünschte Ergebnis aussieht, und man es im Zweifel auch nicht im kleinen EVF sehen kann, dann wird die Lernkurve wieder sehr flach und das Fotografieren zur früheren Frustration (aus der analogen Zeit), bei der man erst zu Hause am großen Bildschirm die automatisch korrigierten Bilddetails erkennt.
Da die Kamerahersteller sich bei diesem heiklen Thema aus gutem Grund bedeckt halten, ist es auch nicht möglich, immer gleich alles haarklein zu beweisen. Überdies ist es für die Langzeitfolgen nicht nur irrelevant, was welcher Hersteller in welchem Modell wie manipuliert, sondern führt sogar nur dazu, dass man vor lauter Bäumen den Wald nicht mehr sieht. Aber viele Fotografen überall auf der Welt konnten inzwischen so viele negative Aspekte bei der Beeinflussung des RAW-Formates belegen und nachweisen, dass man an dem Trend und der Richtung der Entwicklung nicht mehr zweifeln kann. Da manche Leser aus grundsolidem westeuropäischem Antiamerikanismus keine englischen Quellen akzeptieren, hier eine deutsche: Auch dieser Fotograf konnte nachweisen, dass alte (sogar defekte) Objektive an manchen neuen Kameras plötzlich auch in RAW eine höhere wahrgenommene Bildqualität lieferten.
Bei Sonys 11-Bit-RAW-Trick war die Beweislage so umfassend, dass der reichste und größte Konzern im Fotobereich nachgab, nachrüstete und die Firmware zumindest für manche Bereiche umprogrammierte - dem Fotografen somit wieder einen Teil der Kontrolle zurückgab. Software wird von Menschen gemacht. Sie kann folglich auch von Menschen sehr leicht geändert werden.
Es geht mir auch nicht um die rein subjektive Bewertung, ob es gut oder schlecht ist, sondern nur um die Tatsache, dass es derzeit unbekannt und nicht vom Fotografen abschaltbar ist. Bereits die Abschaltbarkeit würde den meisten Fotografen reichen, um wieder die weitgehende Kontrolle über das Werkzeug zu erhalten. - Wenn die Fotografen nichts tun, wird die System-Kamera mittels Künstlicher Intelligenz und Computational Photography langsam aber sicher die Kontrolle über den Fotografen übernehmen. Das ist dann wie bei Smartphones - nur teurer, schwerer und unkomfortabler.
Wie immer bin ich als Analytiker bei dem Thema emotionslos: Ich behalte einfach zusätzlich noch eine alte Systemkamera, die RAW-Dateien kaum manipuliert. Es liegt nur an Ihnen, was Sie wünschen und erlauben. Sie werden als Kunde exakt das auch erhalten.
Hilfe / Feedback
Liebe Leserinnen und Leser,
damit diese umfangreichen, kostenlosen, wissenschaftlich fundierten Informationen weiter ausgebaut werden können, bin ich für jeden Hinweis von Ihnen dankbar.
Deshalb freue ich mich über jede schriftliche Rückmeldung, Fehlerkorrekturen, Ergänzungen, Neue Informationen etc. Ihrerseits per E-Mail oder Kontakt-Formular.
Um meine Neutralität zumindest auf dem hier beschriebenen Feld der Fotografie und Videografie wahren zu können, nehme ich bewusst von keinem Hersteller, Importeur oder Vertrieb irgendwelche Zuwendungen jeglicher Art für das Verfassen der absolut unabhängigen Artikel an. Auch von Zeitschriften oder Magazinen aus dem Fotobereich erhalte ich keinerlei Zuwendungen.
Deshalb freue ich mich, wenn Sie mein unabhängiges Engagement für Sie durch einen gelegentlichen Kauf bei Amazon über die hier angegebenen Links unterstützen. Es ist gleichgültig, welches Produkt Sie über diesen Link kaufen. - Es kann auch jede andere Ware außerhalb des Fotobereiches sein. Alle Preise sind und bleiben für Sie gleich niedrig, wie wenn Sie direkt zu Amazon gehen. Aber durch Ihren Klick auf meinen Link erhalte ich evtl. Monate später eine sehr kleine prozentuale Prämie (Cents je Kauf), welche mir hilft, die hohen Kosten bei der Erstellung der Artikel zumindest teilweise zu decken. - Bitte starten Sie Ihre Einkäufe bei mir.
Herzlichen Dank an alle für Ihre bisherige Unterstützung.
Ja, ich möchte die Unabhängigkeit dieser Seite unterstützen und kaufe über diesen Link bei Amazon
Pflichtangabe: Als Amazon-Partner verdiene ich an qualifizierten Verkäufen. Alle derartigen sogenannten 'bezahlten Links' zu Amazon sind farblich in Rot gekennzeichnet.
Ich wünsche Ihnen weiterhin viel Freude beim Fotografieren und Filmen.