Natürlich - künstlich

vg

Wie viele Änderungen darf man am Foto anbringen? - Eine der großen Streitfragen der Fotografie.

Ein Inhaltsverzeichnis mit direkten Sprungmarken und Überblick über alle bei Natürlich - künstlich behandelten Themenbereiche finden Sie als Pop-Up.

Vorab: Hintergrund, Inhalt, Motiv, Zielgruppen des Artikels

Bei sehr vielen Fragen von Fotografen, welche ich seit 2006 erhielt und zu beantworten versuchte, schwebte im Raum die (oft unausgesprochene) Unterscheidung natürlich - künstlich mit. Überspitz kann man es auch einen Diskurs zwischen echt und gefälscht nennen.

Mir ist bewusst, dass dies ein ganz heißes Eisen der Fotografie ist, welches seit vielen Jahrzehnten zu hitzigen Debatten führt.

Allerdings werde ich hierbei keine Position beziehen, sondern nur Denkanstöße geben, welche eventuell Ihnen selbst Ihre eigene Position zu dem Thema verdeutlichen.

Es geht mir auch nicht darum, Ihre Position gutzuheißen oder zu diskreditieren. Ganz im Gegenteil halte ich alle Positionen zu diesem Thema für sachlich und logisch nachvollziehbar und verständlich.

Allerdings will ich mit Fakten etwas die Absolutheit erschüttern, mit der beide Positionen nicht selten vertreten werden.

Mit dem Artikel hoffe ich sowohl für fotografische Neulinge als auch alte Hasen etwas Klarheit bei Gedanken und in der Wortwahl beitragen zu können und Ihnen verständlich zu machen, worum es Anhängern beider Richtungen geht.

Ziel ist es, ziemlich differenziert und von vielen Seiten die Sache zu beleuchten.

Wortgegensätze

Die ganze Angelegenheit wird bereits dadurch verkompliziert, dass bewusst oder unbewusst bei dieser Diskussion diametrale Gegensätze als Wortpaare für die Extrempositionen stehen:
Natürlich - unnatürlich.
Realistisch - unrealistisch, künstlich.
Das Naturgetreue - das Artifizielle.
Echt - unecht.
Das Wahre - das Manipulierte, das Gefälschte, die Verfälschung, das Falsche.
Das Original - die Bearbeitung, die Kopie, die Fälschung.
Wahrheitsgetreu - verändert, retuschiert.
Wirklich - unwirklich.
Das Reale - das Irreale, das Surreale, das Künstlerische.
Das Faktische - das Anzweifelbare.
(Fotografische) Puristen - (Software-) Techniker.
Wahre / echte Fotografen und (Kamera-) Puristen - (Foto-) Schlamper und (PC-) Maus-Schieber.

Jeder Fotograf kann sicherlich noch weitere Gegensatzpaare bilden.

Auch wenn jeder gebildete Fotograf selbstverständlich sich auf einem Kontinuum zwischen den Extremen sieht oder zumindest wähnt, so muss man doch festhalten, dass diese oder derartige Gegensatzpaare unser Denken bewusst oder unbewusst beeinflussen.

Ferner müssen wir festhalten, dass in unserem Kulturkreis die links angeführten Adjektive, Werte, Attribute etc. positiver belegt sind. Auch dies beeinflusst unser Denken, die Sprache und das Handeln.

Sich von seiner Kultur, seiner Sprache und den Assoziationen derselben völlig frei zu machen, ist eine Illusion. Aber wir können uns selbst bei jeder (fotografischen) Diskussion oder auch die anderen Beteiligten fragen, was Sie damit genau meinen. Oft versachlicht dies bereits die Diskussion und führt zum gemeinsamen Verständnis.

Physikalische Fakten

Beginnen wir mit der Entmystifizierung vieler Begriffe und Behauptungen sowie Thesen.

Analoger Film - Chemikalien

Bei vielen - vor allem älteren Fotografen - schwingt im Hintergrund die Idee mit, dass der analoge Film respektive die analoge Fotografie näher am Original war.

Korrekt ist, dass der Negativfilm weichere Übergänge zeigt und vor allem einen deutlichen Spielraum bei der Belichtung bietet. D.h. man kann spielend zwei Blenden über- oder unterbelichten und erhält in der Nachbehandlung dennoch ein korrekt belichtetes Foto. Insbesondere die Lichter brennen nicht so schnell und vor allem schlagartig bei einer Sättigungsgrenze des digitalen Sensors aus. Aber bei Dias war der Spielraum bereits damals extrem eng. 1/3 Stufe bei der Belichtung mehr oder weniger war bereits nicht mehr korrigierbar.

Faktisch waren jedoch die Mehrzahl aller Fotografien bis in die 1960er Jahre Schwarz-Weiß. Sie spiegelten selbst in den grauesten Kohlerevieren nicht die farbliche Realität wider.

Bei Farbnegativfilmen wie bei Farbdias (Positive) muss man allerdings festhalten, dass die Chemikalien der Beschichtungen bei jedem Hersteller und sogar bei jedem Filmtyp unterschiedlich waren. Man wählte sogar ganz bewusst den X-Film vom Y-Hersteller, weil er eine oder mehrere Farben besonders plastisch wiedergab oder das grün sanfter oder Hauttöne weicher aussehen ließ etc. Wirklich farbneutral war kein analoger Film.

Aber der entscheidende Effekt entstand bei der Schwarz-Weiß-Fotografie und den Farbfilmen erst in der Dunkelkammer, wenn die Entwickler mit weiteren Chemikalien das aus den Filmen herausholten, was die Kamera darauf belichtet hatte.

Jedoch sah das Endergebnis selbst bei identischen Filmen und identischen Entwickler-Chemikalien auf jedem verwendeten Papier ausbelichtet dann doch wieder anders aus.

Von den Serienstreuungen der Chemikalien auf den Filmen, den Chemikalien zur Entwicklung (z.B. Konzentration), der Menge respektive Verdünnung in den manuellen oder automatischen / maschinellen Prozessen, der Dauer der Entwicklung im sogenannten Chemiebad und den unterschiedlichen Fähigkeiten der Ausbelichter (inklusive Montagsarbeiten) wollen wir ganz schweigen.

Aber der Eindruck war dennoch nicht unrichtig. Denn die Fotografen hatten, ohne eigenes Fotolabor kaum Einfluss auf die Bildqualität. D.h. sie selbst konnten diese nicht nachträglich beeinflussen.

Allerdings stellte dies auch keine Garantie dar, dass andere es nicht taten. Denn letztendlich waren es zuerst Menschen und dann automatische Entwicklermaschinen, welche bei jedem Foto die Helligkeit, den Kontrast, die Sättigung etc. anpassten, damit ein für den Durchschnittsbetrachter gutes Bildergebnis auf der Ausbelichtung erzielt wurde.

Ganz nebenbei erwähnt: Zur analogen Filmzeit wurden Fotos oft erheblich beschnitten und an Zwangsgrößen des Papiers angepasst. Dies gilt insbesondere für das englischsprachige Ausland, wo 8*10-inch-Fotos der Standard waren / sind, die jedoch nichts mit dem klassischen Kleinbildformat von 3:2 zu tun haben. Auch bei uns wurde und wird immer der Rand des Fotos rundherum abgeschnitten. D.h. es wurde beim Belichten immer ein Bildausschnitt gewählt (crop).

Ganz offen muss ich Ihnen eingestehen, dass ich von keinem Negativfoto jemals zwei identische Abzüge erhalten habe.

Hinzu kommt der leidige Umstand, dass Chemikalien altern - und zwar schneller unter Hitze oder Lichteinfluss. Deshalb war es früher z.B. gefürchtet, Filme oder Kameras im Handschuhfach des Autos zu lagern.

Das betraf jedoch auch die Ausbelichtung. Die Farben oder selbst die Schwarz-Weiß-Fotos veränderten ihren Ton mit den Jahren. Wer also ein neu ausbelichtetes Foto mit demselben von vor mehreren Jahren nebeneinander verglich, war zutiefst erstaunt.

In der Kamera belichten oder am PC- nachbearbeiten

Hinter der Verherrlichung des analogen Films steht jedoch oft ein anderer Aspekt: Es handelt sich um den Gegensatz der Fotografen, welche (angeblich) alles vor der Aufnahme in der Kamera einstellen und jenen Schlampern, die einfach im Dauerfeuer digital knipsen respektive hirnlos durch die Gegend laufen und dann zuhause am PC erst ein brauchbares Foto daraus zusammenbasteln.

Das sind bereits derart extreme Polarisierungen, dass es sie in der Realität nie gegeben hat und auch heute nicht mehr gibt. Anselm Adams, einer der berühmtesten analogen Landschaftsfotografen, der wirklich fast alles vor dem Betätigen des Auslösers (oft wochenlang) plante, arbeite dennoch danach tagelang seine Fotos im Labor aus - und zwar jedes Mal auf eine andere Weise mit einem anderen Ergebnis. Er hat zu seinem zweigleisigen Vorgehen explizit festgehalten: The negative is the equivalent of the composer's score, and the print the performance. - Das Negativ entspricht der Partitur des Komponisten, und die Ausbelichtung / der Druck entspricht der Aufführung jener Komposition.

Zahlreiche dieser Aussagen, wie Wahrheit, naturgetreu, echt stammen übrigens aus der Anfangszeit der Fotografie, als sie sich im 19. Jahrhundert gegen die Malerei zur Wehr setzen musste. Faktisch waren schon damals jedoch Fotografien nicht natürlich, sondern inszeniert und gestellt. Dies war damals bereits technisch unabdingbar, weil sehr lange Belichtungszeiten erforderlich waren, um die unempfindlichen Fotoplatten und ersten Filme korrekt zu belichten. Dies galt ganz besonders für Menschen und Tiere, welche mehrere Sekunden, manchmal sogar über eine Minute unbeweglich stillhalten mussten, damit das Bild halbwegs scharf wurde.

Nicht selten korreliert der Gegensatz der Anhänger der These des alles in der Kamera vor der Aufnahme machen auch mit der Gruppe, welche nicht gerade über die größten PC- und Software-Kenntnisse verfügen. D.h. evtl. werden da Dinge pauschal abgelehnt, in die man sich nicht erfolgreich eingearbeitet hat oder überhaupt nicht einarbeiten will. - Allerdings findet sich in der anderen Fraktion auch eine erhebliche Anzahl an PC-Spezialisten, welche sich erstaunlicher Weise nicht in alle Funktionen der Kamera einarbeiten. Das Lesen des Handbuches gehört nicht zu deren Lieblingsbeschäftigungen.

In der Tat wurde die digitale Fotografie vor allem in den 1990er Jahren und der ersten Dekade des 21. Jahrhunderts durch zwei soziale Grundströmungen vorangebracht: Die analogen Fotografen, welche auf digitale Kameras umstiegen, und die PC-Anwender, welche über die Software-Schiene den Einstieg in die Bildbearbeitung sowie die Fotografie fanden. Aber in den letzten Jahren wurden viele der ärmeren Software-Techniker durch den drastischen Preisanstieg im Kamerabereich wieder aus diesem Hobby verdrängt.

Digitale Medien

Gegenüber analogen Medien können die digitalen Medien jedoch auch nicht für sich beanspruchen, die Natur in allen Ihren Farben darzustellen.

Fangen wir damit an, dass jeder Sensor eine Matrix zur Farberkennung besitzt. Ohne auf Details eingehen zu wollen, kann man festhalten, dass die weit verbreiteten Systeme auf RGB setzen. Dabei werden nur die drei Farben Rot, Grün und Blau aufgezeichnet. Selbstredend kann man darüber alle Mischfarben erstellen. Aber es ist ein Trugschluss, zu vermuten, dass ein digitaler Sensor in jedem Pixel die exakte Wellenlänge des einfallenden Lichts misst und selbige an den Prozessor liefert.

Gleichgültig, wie teuer und gut der Sensor sowie die Elektronik der Kamera auch sind, es existiert keine einzige digitale Kamera, welche die Farben der Natur exakt wiedergibt. Heute spricht man darüber nur noch ungern. Aber früher wurden die sogenannten Delta-E-Werte angegeben. Sie sagten etwas über die durchschnittliche Abweichung einer gewissen Farbmenge (oft nur 16 oder maximal 256 ausgemessene Farben) vom Original aus. Wegen Delta-E wurden früher Glaubenskriege ausgefochten und Kameras gnadenlos abgewertet oder schlecht gemacht. Aber mit Durchschnitten ist das so eine Sache. Mein Statistikprofessor sagte einmal so treffend: Wenn Sie mit einem Bein in einem Kübel Eiswasser stehen und mit dem anderen in kochend heißem Wasser, dann stehen Sie im Durchschnitt ganz bequem.

Zeichnet der Sensor somit nur ähnliche Farben wie in der Natur auf, so wird es beim Abspeichern noch unechter, da wir technisch von sogenannten Farbräumen sprechen. Fast jeder Fotograf hat schon einmal von sRGB oder Adobe gehört. De facto gibt es noch viel mehr Farbräume. Allerdings unterscheiden sie sich in der Darstellung der Farben und sogar im Umfang derselben. D.h. kein Farbraum umfasst wirklich alle Farben, die ein gesunder Mensch sehen oder ein Spektroskop im sichtbaren Licht feststellen kann.

Dann kommen jedoch die kamerainternen JPEG-Modi hinzu. Selbstredend kann man Neutral einstellen. Aber jeder Kamerahersteller hat dies in jedem Modell anders definiert. Selbst jedes Nachfolgemodell einer Kameraserie wurde in dieser Hinsicht bisher optimiert. Unter optimiert versteht man im Übrigen die Anpassung der Farben etc. an den jeweils aktuellen Marktgeschmack respektive denjenigen der Kameratester (oft in den USA). Überdies kann jeder Fotograf zwischen vielen kamerainternen Foto-Stilen auswählen und diese in hochwertigen Kameras sogar nochmals individuell anpassen: Sättigung rauf oder unter, mehr oder weniger Kontrast, Schärfen, Klarheit, Entrauschung / Rauschunterdrückung etc.

Nebenbei erwähnt, werden bei JPEG - meist ohne groß nachzufragen - massive Objektivkorrekturen durchgeführt: So z.B. Vignettierung (Randabdunklung aufgehellt), chromatische Aberration (Farbfehler entfernt), Verzeichnung (Linien gerade gezogen und das Foto dann beschnitten), Beugungskorrektur, zusätzliche objektivabhängige Rauschunterdrückung nur in den vorab korrigierten Flächen etc.

Auch mit RAW sieht es nicht viel besser aus. Denn roh ist da schon lange nichts mehr. Jeder Kamerahersteller trickst damit herum. Das reicht hin bis zum systematischen RAW-Betrug bei modernen spiegellosen Kameras. Aber das ist noch nicht einmal das Hauptproblem. Denn jede Software interpretiert eine RAW-Datei beim Einladen anders und optimiert sie anders, ohne dass der Anwender (Fotograf) dies im Detail weiß. Er kann es zwar nachträglich wieder auf sein Wunschbild von Natürlich zurück-entwickeln, muss dafür jedoch viele Schieberegler in der Software betätigen. Oder man muss lineare Profile verwenden, von denen viele Fotografen noch nicht einmal wissen, dass es so etwas gibt, oder wie man sie verwendet.

Überspringen wir die sowieso von vielen kritisierte Bildbearbeitungs-Software und gehen direkt zur Anzeige auf dem Monitor über. D.h. Sie spielen die Fotos entweder von der Kamera direkt auf den Monitor oder Fernseher oder Sie kopieren alles auf den PC und rufen sie dort in einem (reinen) Darstellungsprogramm auf.

Vorsicht: Jede Software stellt Fotos anders dar. Wer dies nicht glaubt, soll einfach einmal z.B. die Standard-Software Lightroom und Bridge (Zubehör zu Photoshop) verwenden. Auch Sie werden den Helligkeitsunterschied desselben Bildes erkennen.

Es existieren keine zwei Monitore, welche ein Foto exakt identisch darstellen - nicht einmal identische Modelle desselben Herstellers - selbst dann nicht, wenn Sie diese Monitore kalibrieren. Bei normalen Monitoren und Fernsehern reicht bereits die unterschiedliche Einstellung von Helligkeit und Kontrast zu einem anderen Farbeindruck und Fotoeindruck insgesamt. Hinzu kommen die unterschiedlichen Darstellungstechniken von Röhrenmonitoren bis hin zu den ständig weiterentwickelten Flachbildschirmen. Manchmal reicht bereits eine Winkelabweichung des Betrachters von wenigen Grad von der Mitte des Bildschirmes aus, um den Bildeindruck zu verändern. Auf die veränderbare Lichttemperatur des Monitors in Kelvin und die oft nicht veränderbare Gammakurve eines Monitors gehe ich nur kurz ein, da dies sowieso kaum jemand versteht. Aber auch diese beiden Details verändern die Farben und den Bildeindruck erheblich.

Selbst an Ihrem eigenen Monitor wird das Bild ständig anders aussehen, weil die Lichttemperatur im Zimmer sich über den Tag verändert, der Monitor sich erwärmt, die Lichthelligkeit im Raum ab- oder zunimmt, etc. Und selbst, wenn Sie unter idealen Bedingungen in einem Spezialraum arbeiten, wird sich die Lichtwirkung ändern, weil selbst die kalibrierten Leuchtmittel (Lampen) sich über die Wärme verändern, sowie über ihr Alter - d.h. je nach der Benutzungsdauer in Stunden.

Verlassen wir dieses unerfreuliche Kapitel und gehen zum digitalen Ausdruck. Man kann die Datei auch mit DPOF (unter Umgehung des PCs und seiner Software) direkt aus der Kamera auf den Drucker schicken und ausdrucken. Allerdings besitzt jeder Drucker wiederum eine andere Technik. Selbst die Obertechniken wie Laser-Farbdrucker, Thermotransferdrucker, Tintenstrahldrucker untergliedern sich in derart viele Gruppen, dass der Laie keinen Überblick hat.

Dann kann man jedoch auch mit unterschiedlichen Druckertreibern arbeiten, welche die Farbe im Foto anpassen. Woran passen sie diese an? U.a. an die Anzahl der Druckerpatronen, der verschiedenen Farbmischungen, der unterschiedlichen Papierqualität. Daraus folgt, dass es auch mehrere Druckertreiber respektive Druckertreibereinstellungen für einen einzigen Drucker gibt.

Selbst im Idealfall des - sagen wir einmal perfekten - naturgetreuen Druckes, wird dieser an jeder Wand aufgehängt bei jedem Licht und vor allem Lichtwinkel - mit oder ohne Glas davor - anders aussehen.

Wer sich für die Details interessiert: Sie sind im Artikel Farbtreue dargestellt.

Folglich muss man festhalten, dass der Unterschied Analog - Digital eben nicht gleichzusetzen ist mit natürlich gegen unnatürlich. Zumindest war die Chemie keineswegs so natürlich wie viele immer tun. Und digital gilt per Definition als unnatürlich.

Halten wir jedoch wiederum positiv auch fest, dass man mit beiden Medien (analog wie digital) mit viel Detailkenntnissen, Zeit, Mühe und auch Geld durchaus Fotoendergebnisse erzielen kann, welche der Natur nahe kommen.

Wäre es folglich nicht sinnvoller, man würde sich über die genauen Details der aufwendigen natürlichen Gestaltung des Bild-Endergebnisses unterhalten, statt sich pauschal über die eingeschlagenen Wege zum Endergebnis zu streiten? Denn schon im Altertum wusste man, dass viele Wege nach Rom führen.

Objektiv = objektiv?

Eventuell liegt ein Problem jedoch bereits viel weiter vorne in der fotografischen Kette.

Als eine Kundin sich einmal bei einem mit mir befreundeten Fotografen darüber beschwerte, dass sie auf dem Foto nicht schön aussehe, antwortete dieser genervt: Da kann ich nichts dafür. Das Ding da vorne an der Kamera heißt Objektiv!

Aber gibt ein Objektiv wirklich objektiv die Natur oder das Motiv wieder?

Selbstverständlich kann man durch hohen Forschungs- und Entwicklungsaufwand, hochwertige Gläser und teuerste Verarbeitung die optische Qualität der Objektive erhöhen. D.h. die Wiedergabequalität der Objektive stieg über die Jahre und natürlich auch mit dem Preis.

Aber selbst im Idealfall zeigen alle Brennweiten Unterschiede im Abbild. So werden Personen, die bei Weitwinkelaufnahmen am Rand stehen, oft extrem dick dargestellt. Ebenfalls bekannt ist, dass Porträts mit großen Telebrennweiten (200 mm und mehr) teilweise Personen stämmiger aussehen lassen. Deshalb wird dort von manchen Fotografen nachträglich am PC die Person auch etwas schlanker gemacht, damit man der Realität wieder nahe kommt. Dass uns diese Stämmigkeit meist nicht stört, liegt oft daran, dass man derartige Telebrennweiten eher im Sportbereich verwendet, wo man sowieso sportliche Akteure erwartet.

Dann gibt es da noch die üblen Verzerrungen bei Häusern in der Architekturfotografie. Stürzende Linien sind allerdings optisch absolut korrekt. Auch unser Auge sieht es exakt so. Erst unser Gehirn macht daraus gerade stehende Gebäude, weil wir wissen, dass Gebäude nicht nach hinten umfallen. Dummer Weise ist unser Gehirn dazu nicht bei Abbildern von Häusern in der Lage. Jedoch ist es generell - trotz aller Tricks - bei vielen Objekten kaum möglich, diese perfekt wiederzugeben.

Dann wäre da noch die Frage nach der zu wählenden optimalen Objektiv-Blende? Welche Blende stellt das Motiv am natürlichsten dar? F1,0, F2,8, F5,6, F11, F22 oder?

So ganz objektiv scheinen die Objektive die Realität vermutlich nicht abzubilden. Von den Manipulationen bei modernen Objektiven im Zusammenhang mit der nachträglichen kamerainternen Korrektur von Fehlern beim RAW-Betrug ganz abgesehen.

Optische Filter oder Software-Filter

Eng verbunden mit den Objektiven sind die davor anschraubbaren oder aufsteckbaren Filter.

Die Vertreter der Optik verwenden optische Filter zur Erzielung des gewünschten Ergebnisses und halten nachträgliche Software-Veränderungen am PC für unzulässig.

Ist jedoch das durch einen Polarisationsfilter erstellte Foto wirklich optisch korrekt und stellt es die Natur realistisch dar?

Selbstredend haben Polarisationsfilter ihr Einsatzgebiet, wenn es z.B. um Fotos durch Glasscheiben oder durch die Wasseroberfläche hindurch geht - oder bei der modernen Architekturfotografie mit den vielen großen Glasflächen an Gebäuden. Diese störenden Spiegelungen an jenen Flächen kann man bis heute elektronisch mit Software kaum beseitigen. Zumindest erkennt man schnell den Unterschied

Polarisationsfilter filtern aber u.a. auch Spieglungen, welche dazu führen, dass Farben verblassen. D.h. der Polarisationsfilter lässt das Blau des Himmels und andere Farben des Laubes oder der Landschaft gesättigter erscheinen. Ist das Bild dann so realistisch, wie der Betrachter es in der Natur sah?

Filter sind jedoch selbst im optimalen Fall eine weitere Glasfläche vor dem Objektiv, die definitiv die einfallende Lichtmenge reduziert und in fast allen Fällen auch sonstige optische Veränderungen hinzufügt.

Selbst die hochwertigsten Filter der seriösesten Filterhersteller sind nicht auf jedes Objektiv abgestimmt. Es ist physikalisch bereits aufwändig genug, die Filter-Eigenschaften auf der jeweils angegebenen Filtergewindedurchmesser-Distanz konstant von der Mitte bis zum Rand aufrecht zu erhalten.

Vor allem treten beim Polarisationsfilter die nur in groben Grenzen am Sucher (auch dem elektronischen) abschätzbare Effekte ein. D.h. erst am PC zuhause erkennt man, ob man den Ring etwas mehr nach links oder rechts hätte drehen müssen.

Überdies ist der Polarisationsfilter richtungsabhängig in Relation zum Sonnenstand (vertikaler und horizontaler Winkel) zur Aufnahmerichtung. Im schlimmsten Fall kann die eine Bildseite des Fotos drastisch anders ausfallen als die andere.

Letztendlich ist ein Effekt eines vor das Objektiv geschraubten Filters kaum mehr nachträglich per Software komplett korrigierbar.

Keineswegs ist die elektronische Entsprechung des Polarisationsfilters - die Farbsättigung respektive die Luminanz - in allen Software-Paketen immer sauber regelbar. Ferner hat sie nicht selten weitere (oft dem Anwender unbekannte) negative Nebenwirkungen. Aber sie kann in zahlreichen Fällen durchaus vergleichbare Effekte im Foto erzeugen. Insbesondere kann man diese in hochwertiger Software und bei Verwendung linearer RAW-Profile feinfühlig steuern und - vor allem - ggf. wieder zurücknehmen.

Selbstverständlich hat ein ND- / Neutraldichte-Filter seine Einsatzgebiete, indem er die einfallende Lichtmenge in logarithmischen Stufen reduziert. So kann man bei hellem Tageslicht zahlreiche Aufnahmen der Ultra-Langzeitbelichtungen der Wasserfälle etc. kaum ohne diesen Filter durchführen.

Eine ähnliche Berechtigung besitzt der ND-Verlaufsfilter, wenn es z.B. darum geht, einen extrem hellen Himmel so abzudunkeln, dass man den dunkleren Vordergrund auf dem Boden noch innerhalb des Dynamikumfanges der Kamera bekommt und somit beide Teile mit durchgezeichneten Details in einem Foto aufnehmen kann.

Die Frage ist nur, ob dies unserer Sehweise entspricht und somit wirklich die Realität darstellt.

Dies gilt umso mehr, als fast alle preiswerteren ND-Filter die Farben (meist in den Rotbereich) hinein verändern.

Wenn es jedoch nicht natürlich wäre, dann wäre ein software-technischer Effekt z.B. der nachträglichen manuellen Belichtungskorrektur oder eines manuell nachträglich eingefügten Software-Verlaufsfilter zumindest auch nur unnatürlich.

Zugegeben: Viele HDR-Programme führen zu völlig unnatürlich aussehenden Fotos - vor allem in den Händen von Anfängern. Aber hat ein ND-Verlaufsfilter im Endergebnis nicht dieselbe Wirkung? Er reduziert den wahren Dynamikumfang, um etwas aufzunehmen. Mit einer Belichtungsreihe und einer High-Dynamic-Range-Software macht man faktisch dasselbe, indem man diesen (zu) großen Dynamikumfang zusammenfügt. - Der Weg ist unterschiedlich. Aber sofern man beide Techniken korrekt anwendet, kann man durchaus vergleichbare oder zumindest hochwertige Ergebnisse erzielen.

Oder nehmen wir den beliebten UV-Filter, der sich als sogenannter Schutzfilter an vielen Objektiven befindet. Dieser erhöht die Fernwirkung einer Aufnahme durch den vor allem im Sommer an Seen oft störenden Dunst.

Warum soll dieser Filter natürlicher sein als der Software-Regler Dunst entfernen / dehaze?

Zugegeben, mit den Reglern in der Software wird oft hoffnungslos übersteuert. Aber es kommt auch vor, dass manche optischen Filter zu stark eingestellt oder zu starke ND-Filter ausgewählt werden, oder der optische ND-Verlaufsfilter in einem (nennen wir es wir einmal) merkwürdigen Winkel am Objektiv verwendet wird.

Manuelle Kamera-Einstellungen gegen Automatik-Modi

Die Anhänger des Wahren und Echten stellen angeblich alles manuell ein, weil nur dies authentisch wäre und nur dies die Realität reproduzierbar abbilde.

Welche Verschlusszeit stellt das Motiv am realistischsten dar? Sind verwischte Langzeitbelichtungen realistisch? Sehen Menschen die Dinge (z.B. Wasserfälle und Bäche) so? Oder können Menschen die Details mit bis zu 1/80.000 Sekunde eingefrorenen Fotos moderner Kameras bei an einem selbst vorbeischießenden Rennautos oder Flugzeugen tatsächlich in jener kurzen Zeit wahrnehmen.

Ist es wirklich naturgetreu, jedes Mal die Weißbalance manuell einzustellen? Das menschliche Auge / Gehirn macht es nämlich auch automatisch. Prüfen Sie es nach: Sie werden unter Kerzenlicht, Neonlicht, Glühbirnenlicht (sofern Sie so etwas noch besitzen), modernen Kaltstrahlerlampen, LEDs etc. ein weißen Blatt Papier immer als Weiß deklarieren und entsprechend alle Farben anpassen. Das Gehirn bildet quasi die Weißabgleichsautomatik.

Ist es wirklich realitätsgetreu, mit einem anders funktionierenden Aktiv-/Direkt-Lichtmessgerät die Lichtintensität am Motiv zu messen, das nachweislich mit der ISO-Einstellung der Kamera nicht übereinstimmt und somit faktisch falsche Werte liefert, um anhand dieser externen Messung die Belichtung der Kamera manuell festzulegen, nur weil man der kamerainternen automatischen Reflexions-/Indirekt-/Passiv-Belichtung misstraut?

Und dann noch die Frage zur ISO-Stufe: Was stellt die Realität bei wenig Licht korrekter dar? Eine verwischt unscharfe aber rauschfreie Aufnahme bei ISO 100, oder eine scharfe aber verrauschte bei ISO 25.600? Das menschliche Auge kann beide fotografischen Ergebnisse nicht in der Realität nachvollziehen, da wir nicht so sehen, wie eine Kamera.

Optische versus digitale Vergrößerung

Nicht wenige Fotografen behaupten, dass optische Vergrößerungen nur durch Telekonverter naturgetreu wären.

Aber prinzipiell stellt sich bei der optischen Variante bereits die Frage, ob dies wirklich die ganze Realität darstellt: Sind 800 mm Teleobjektive, die einer 16-fachen Vergrößerung der Normalbrennweite entsprechen, oder sogar mit 2-fach-Telekonverter 1.600 mm Brennweite mit einer 32-fachen Vergrößerung so, wie wir diese Dinge mit bloßem Auge in der Natur sehen können?

Anhänger der digitalen Fraktion führen hier an, dass das Grundobjektiv (in unserem Fall das 800 mm-Tele) bereits alle optischen Informationen sammelt. Der Telekonverter kann nichts dazufügen. Er kann als Vergrößerungslinse nur das Vorhandene - vom Objektiv gelieferte - vergrößern. Wenn jedoch alles sowieso bereits vom Original-Objektiv geliefert wird, dann ist es auch im Sensor so vorhanden. Es bedarf nur technischer Anwendungen, um diese (in der Datei) vorhandenen Details perfekt sichtbar zu machen.

Darauf wenden Vertreter der optischen Variante ein, dass Software unerlaubt Details hinzufügt, die nicht vorhanden wären.

Hier muss man etwas ausholen, um den Diskurs verständlich zu machen.

In der Tat arbeiten Firmen daran, alles künstlich zu erzeugen. So ist es bereits heute möglich, anhand der tausenden Fotos von fast jedem denkbaren Motiv im Internet eine 3D-Rundumaufnahme zu erstellen. Somit kann man z.B. - ohne jemals in New York gewesen zu sein - ein Foto von der Freiheitsstaute aus z.B. nautisch 124 Grad und einer Höhe von 76 Metern (wie ein Helikopter fliegend) bei Sonnenaufgang am 4. Juli jedes x-beliebigen Jahres machen. Zugegeben: Anfang der 2020er Jahre funktionierte dies nur mit gigantischer Rechenkapazität und zu Kosten, für dies Sie sich auch den Miethubschrauber samt Reise nach New York leisten können. Aber Firmen arbeiten daran. Dennoch ist das noch nicht die Alltagsrealität aller Fotografen. Es ist sogar die Frage, ob es die in absehbarer Zeit werden kann. Gedacht ist das alles eher für Fernseh- und Filmstudios, die sich damit viel Geld für den Transport der Schauspieler sowie Ausrüstung zu den Originalschauplätzen sparen können. Jene Auftraggeber bezahlen deshalb auch bereitwillig die Millionen US-Dollar dafür, weil sie dadurch auf die Dauer noch mehr Geld einsparen.

Und zugegeben: Diese Zukunftsaussichten der KI können (Berufs-)Fotografen und Videografen den kalten Schauer über den Rücken jagen, werden sie dadurch doch komplett überflüssig.

Denken wir hingegen zurück an die ersten Grafikprogramme, so konnten diese Fotos nur in der Weise vergrößern, indem sie die identischen Pixel in zwei Richtungen identisch kopierten (= vervierfachten, oder mehr). So etwas nennt man Pixelwiederholung. Das Ergebnis war pixelig, stufig und faktisch nicht wirklich brauchbar.

Jedoch schritt die Software-Technik voran. Heute finden sich hochkomplexe mathematische Formeln hinter derartigen Vergrößerungen. Photoshop und andere verwenden z.B. zahlreiche Varianten der bikubischen und bilinearen Vergrößerung.

In den letzten Jahren kam die AI / KI hinzu - Artificial Intelligence / künstliche Intelligenz. Bei Puristen stößt bereits das Wort künstlich auf Ablehnung und sagt angeblich alles.

In der Tat fanden sich Programme, die etwas hineinvergrößern, was nicht vorhanden war. Aber das waren die Negativbeispiele, die sich am Markt nicht durchsetzten. Vor allem der KI-Markt litt viele Jahren darunter, dass unausgegorene Software in Smartphones oder für den PC angeboten wurde, welche auf den ersten Blick für jeden Betrachter erkennbar unnatürliche Effekte und Bildergebnisse erzeugt. Man denke nur an die Smartphone-Filter, die aus adipösen Teenagern wahre Hungerhaken machen, welche dann millionenfach angewendet und kopiert Teile einer Generation von Menschen gesundheitlich schädigen (siehe z.B. Quelle 1, Quelle 2). Dadurch hat KI-Software historisch bedingt nicht zu Unrecht oft einen negativen Ruf.

Allerdings wird der KI in solch pauschaler Verallgemeinerung auch Unrecht getan. Sinnvoll eingesetzt kann sie das Bild verbessern, indem sie sicherstellt, dass weniger Fehler z.B. beim Vergrößern auftreten. Mathematische Verfahren sind zwar hochwertig, aber nicht fehlerfrei, weil standardisiert. In der Regel finden sie bei größeren Skalierungen von feinen Details schnell ihre Grenze, da sie keine Einzelfälle unterscheiden können. Klartext: Da wurde aus Details oft Matsch oder Brei. Hier kann KI hilfreich (ergänzend) einsetzen, indem es diese Strukturen erkennt. So macht es einen Unterschied, ob man eine Elefantenhaut oder ein Vogelgefieder vergrößert. Sofern die Software hier die intelligente Auswahl der Detailvergrößerung trifft, dann kommen sichtbar schärfere Details mit erkennbarer und zum Motiv passenden Struktur heraus.

Sinnvoll eingesetzt werden somit bei KI-gesteuerter Vergrößerungs-Software auf dem Sensor vorhandenes Bildmaterial korrekt und optimal aufgearbeitet. - In der Wissenschaft wird diese Computational Photography mit KI schon seit Jahrzehnten eingesetzt. Ohne sie wären z.B. die modernen Sternenaufnahmen oder Kernspinnbilder aus dem menschlichen Körper nicht möglich. Wenn jedoch Astronomen und Mediziner etc. sich darauf verlassen, dann muss man klar festhalten, dass sinnvoll eingesetzte Künstliche Intelligenz durchaus Vorteile bei der Darstellung der Realität besitzen kann.

Denn eines ist ganz klar, die Optik stößt irgendwann an physikalische Grenzen und bereits viel früher an ökonomische. Schon heute sehen wir dies bei der Verwendung selbst der teuersten und hochwertigsten Telekonverter zur 1,4- fachen und 2-fachen Vergrößerung mancher Teleobjektive. Sie verschlucken massiv Licht, verschlechtern somit die Bildqualität, reduzieren den Dynamikumfang, verringern meist die Schärfe (vor allem im Randbereich weiter) und behindern das Autofokussystem. Bereits heute stellen zahlreiche Tester (auch ich) deshalb im direkten Bildvergleich fest, dass die Bildergebnisse der heute verfügbaren hochwertigsten Vergrößerungssoftware im Endergebnis den besten Telekonvertern mindestens gleichwertig, wenn nicht sogar überlegen sind. - Bitte beachten Sie meine einschränkende Wortwahl: Ich spreche ausdrücklich von moderner (oft teurer) Software, die auch korrekt angewendet wird. - Seit Mitte der 2020er Jahre war dies alles durch die neue GenKI (Generative Künstliche Intelligenz) für Anwender in der freien Welt bereits verfügbar und wurde so erfolgreich eingesetzt, dass 2025 kaum mehr jemand den Unterschied zwischen optisch aufgenommenen und durch derartige GenKI erzeugten Bildern erkennen konnte.

Verwechselt wird dies von Puristen allerdings nicht selten mit sogenannter Morphing-Software, welche z.B. einem Papagei ein Leopardenfell anziehen kann. Das ist zwar auch KI-gesteuert, hat jedoch mit der oben beschriebenen Vergrößerungs-Software nichts zu tun.

Welche Größe ist naturgetreu

Derartige mathematische Prozesse finden sich jedoch auch beim Verkleinern von Fotos, damit man sie z.B. im Internet ausstrahlen kann. Ist somit jedes Foto im kleineren Pixel-Format unrealistisch?

Es geht aber noch weiter. Welche Pixelauflösung welcher Kamera ist dann natürlich oder realistisch oder realitätsgetreu. 24 Mega-Pixel oder 45 oder 60 oder 100 oder 150MP? Damit direkt verbunden ist die mögliche maximale 1:1-Bildgröße am Monitor und die ausbelichtbare scharfe Detailgröße.

Aber bei analogem Film sah / sieht es auch nicht viel hochwertiger aus. Da wird der analoge Ausbelichter entweder in einem größeren Abstand zum Papier justiert oder die Linse zum Ausbelichten gewechselt. Deswegen waren auf dem Negativ-Streifen oder Diapositiv nicht mehr Punkte (Chemikalienkörner) vorhanden. Auf dem ausbelichteten Papier scheint man dennoch mehr zu sehen. Aber das liegt an zwei Dingen. Erstens fand es bei einem gewissen Vergrößerungsfaktor die Grenze an der Auflösung des Negativs oder Dias und zweitens waren es wieder Chemikalien auf dem Papier, welche die Details mischten respektive über die Körnigkeit hervorhoben. D.h. Chemie erzeugt ebenfalls bis zu einer gewissen Grenze eine scheinbare (künstliche) Detailvergrößerung, die in Wirklichkeit nicht auf dem Negativ oder Dia vorhanden war.

Auch beim Papierformat stellt sich generell die Frage: Was ist realitätsgetreu? Ist es wirklich naturgetreu, wenn ein Elefant auf 10*15 cm ausbelichtet wird oder eine Maus auf 4*6 Meter? Es gibt gute Gründe für beide Formate. Aber das ändert nichts an dem in der Diskussion so hoch gehaltenen Ideal der Abbildung der Realität.

Software auf dem PC und in der Kamera

Puristen wehren sich häufig gegen die Nachbearbeitung der Fotos auf dem PC. Sie fordern alles vorab in der Kamera perfekt einzustellen.

Die technische Entwicklung lief jedoch seit den 2010er Jahren so ab, dass viele PC-Programme als Sonderfunktionen in die Kamera eingebaut wurden.

Wie ist nun HDR-Fotografie zu bewerten: Mehrfachaufnahmen können nun sowohl in der Kamera als auch auf dem PC zu Fotos mit hohem Dynamikumfang zusammengefasst werden. Und in der Tat gibt es Untersuchungen, dass das gesunde menschliche Auge sich in Lichter (helle Stellen) und Schatten (dunkle Stellen) hineinsehen kann und dadurch bis zu 24 Blenden Dynamikumfang erzielt. Eine Kamera kann mit herkömmlichem Sensor gerade einmal 14 Blenden in einer Aufnahme aufzeichnen.

Wie sieht es mit Panorama-Aufnahmen aus, die man heute ebenfalls nicht nur auf dem PC, sondern auch in der Kamera erstellen kann? Sehen wir Menschen wirklich so?

Wie sieht es mit Focus-Stacking aus? Das können heute mache Kameras mit extrem ausgefeilter Software durchführen.

Manche Puristen werden antworten, dass alles, was mit der Kamera gemacht werden kann, realistisch ist. Die PC-Fraktion wird darauf hinweisen, dass diese Sonderfunktionen zuerst von Software auf dem PC beherrscht wurde und sie es auch heute dort noch genauer in der Feinabstimmung durchführen kann.

Fakt ist, dass es sich in beiden Fällen um Software handelt, welche die Fotos bearbeitet.

Wir haben uns schon lange von den rein mechanisch arbeitenden - und von Menschen vermeintlich kontrolliert einstellbaren - Kameras verabschiedet. Jene litten übrigens meist unter erheblichen mechanischen Serienstreuungen.

Damit wird auch die folgende, oft zu lesende und zu hörende Aussage ziemlich vage: Man darf ein Foto nur so bearbeiten, wie man es in der Kamera sah. - In welcher Kamera? In einer alten APS-C-DSLR, die nur ca. 90% des wahren Fotos im optischen Sucher darstellt? Oder auf dem lausigen rückwärtigen Display der meisten Kameras, das farbverschoben und je nach eingestellter LCD-Helligkeit und Sonneneinstrahlung etwas anderes wiedergibt? Oder ist damit eine Profi-Vollformatkamera mit 100%-Sucher gemeint, die jedoch als DLSR allerdings keine optischen Korrekturen der Objektive darstellt? Oder ist damit eine spiegellose Kamera gemeint, welche im Sucher bereits diese optischen Korrekturen inklusive Helligkeitskorrekturen und eingestellten Farbveränderungen anzeigt? Oder ist damit sogar eine der ganz neuen spiegellosen Kameras mit HDR-Sucher gemeint, die einen größeren Dynamikumfang im elektronischen Sucher darstellt, als es 90% der Mitte der 2020er Jahre kaufbaren PC-Monitore und sogar viele wirklich teure Fernseher darstellen können?

Wie kann man letztendlich überhaupt einen Papierausdruck, der durchschnittlich nur 6 Blenden Dynamikumfang darstellt, mit der Realität vergleichen? Selbst modernste Sonderdrucke kommen nicht einmal annähernd an die 14 Blenden Dynamikumfang moderner Sensoren oder an die Fähigkeiten des gesunden menschlichen Auges heran.

Natürliche Störfaktoren

Viele Aufnahmen sind nur unter ganz bestimmten physikalischen Gegebenheiten optimal aufzunehmen. Lassen Sie uns das einmal am Beispiel einer Vollmondaufnahme durchprüfen.

In einer unserer typisch lichtverschmutzten Städte wird Ihnen keine brauchbare Mondaufnahme gelingen (eigentlich überhaupt keine Sternenaufnahme), da man schlichtweg keine Nacht mehr hat, die den Namen verdient. Wir haben in den Städten die Nacht zum Tag gemacht.

Ferner liegt durchschnittlich die Luftfeuchtigkeit in den Städten höher als auf dem Land. In meiner Heimatstadt im Tal am Bodenseeufer sind die Luftfeuchtigkeitswerte sogar fast ganzjährig extrem hoch. Sie liegen nicht selten sogar über den erlaubten Grenzwerten der Kamerahersteller. Dazu kommt der Umstand, dass es in den Städten meist wärmer ist, wodurch die absolute Luftfeuchtigkeit, welche für Bildstörungen wichtiger ist als die relative, noch höher liegt.

Hinzu kommen die Schmutzpartikel der Industrie und des Verkehrs, welche die Sicht nach oben drastisch einschränken.

Der Mond ist jedoch faktisch überall derselbe. Er besitzt - überall aufgenommen - dieselben Krater, Gebirge etc.

Dennoch werden Fotos in der trockenen (und nachts kalten) Wüste beeindruckend schärfer, kontrastreicher, plastischer - realistischer. Ähnlich ist es mit Fotoaufnahmen des Mondes auf hohen Bergen.

Folgt daraus wirklich, dass ein Foto des Mondes in der Großstadt aufgenommen unrealistisch ist?

Und wie sieht es damit aus, wenn man mit z.B. den klassischen Dehaze-Funktionen / Dunst-Entfernung sowie der Gradationskurve nun am Großstadtfoto des Mondes diejenigen Details herausholt, die im Sensor und der Datei vorhanden sind, damit der Mond exakt so aussieht wie auf den Bergen oder in der Wüste? Ist das Foto vom Mond dann gefälscht?

Hinweis: Dies schrieb ich Jahre bevor das Samsung Smartphone S23 Ultra 2023 exakt diese Technik mit KI automatisch kameraintern anwandte und weltweit für Aufsehen sorgte: Bei den angeblich 'echten' Fotografen wurde dies schärfstens verurteilt, aber Millionen Menschen weltweit kauften sich jenes Modell exakt wegen jener KI-Funktionen, welche in den Folgemonaten und Folgejahren in fast allen Modellen aller Smartphone-Hersteller in verschiedenen Versionen Einzug fanden. Damit war bewiesen, dass die Kunden das wünschten. Mitte der 2020er Jahre stellte sich somit die weitergehende frage, ob es sinnvoll sein kann, sich gegen die (aus deren Sicht berechtigten) Wünsche von insgesamt bis zu ca. 6 Milliarden Smartphone-Nutzer zu stellen?

Retuschieren

Entsprechend sehen es Puristen heute als inakzeptabel an, wenn man z.B. Müll oder andere Gegenstände aus einem Foto entfernt. Dafür sprechen bei bestimmten dokumentarischen Fotostilen durchaus stichhaltige Motive.

Jedoch hätten wir da wieder die Brennweite des verwendeten Objektivs und den Abstand sowie die Perspektive des Fotografen. Wenn er jene so wählt, dass der Müll z.B. nicht mit in das Bild kommt, ist es dann wirklich realistischer?

Oder, um es ganz deutlich auf das Geld zu konzentrieren. Ist es ein realistischeres Bild, wenn ein reicher Fotograf einen seltenen Vogel mit 1.200 mm Objektiv und 2-fach-Telekonverter und 45 MP-Kamera aufnimmt, das er beschneidet (cropped), als wenn ein ärmerer Fotograf mit einem 100-400 mm Telezoom den Schmutz und andere störende Teile rund um das Hauptmotiv entfernt? Fakt ist: Beide Fotografen wollen den Blick des Betrachters auf den seltenen Vogel lenken.

Puristen werden dies kategorisch ablehnen und führen dazu nachvollziehbare Gründe an:

So war es früher in der dokumentarischen Fotografie z.B. nicht erlaubt, etwas zu retuschieren. Als bekannt wurde, dass Dorothea Lange ihr 1936 (sowieso inszeniertes) Foto Migrant Mother retuschierte (es ging nur um einen störenden Daumen), wurde Sie von der US-Behörde in deren Auftrag sie Sozialdokumentation betrieb, entlassen.

Andererseits zwingen heute bereits Gesetze, wie die DS-GVO, Sie als Fotografen dazu, bestimmte Dinge unkenntlich zu machen.

Wie sind des Weiteren (fettige) Sensorflecken und Staub auf den Sensor oder im Objektiv zu bewerten? Darf man sie entfernen, weil es Kameradefekte sind? Oder muss man da genauso streng sein, wie bei Müll in der Landschaft? Für Kamerapuristen der Hinweis: Moderne Kameras können diese Sensorflecken bereits selbst erkennen und mittels Software in der Kamera entfernen. Ist dies dann erlaubt, aber mittels Software auf dem PC verboten?

Dennoch leidet das Retuschieren - wie so viele digitale Themen - unter einer belasteten Vergangenheit. Vor allem mit dem Programm Photoshop war es seit 1990 möglich und wurde extrem angewendet. Deshalb definiert das Standard-US-Lexikon to photoshop auch explizit negativ: to alter (a digital image) with Photoshop software or other image-editing software especially in a way that distorts reality (as for deliberately deceptive purposes) - (ein digitales Bild) mit Photoshop oder einem anderen Bildbearbeitungsprogramm verändern, insbesondere in einer Weise, welche die Realität verzerrt (z.B. für absichtliche Täuschungszwecke).

Übersehen wird dabei jedoch, dass jene Exzesse der frühen Zeit der digitalen Fotografie schon seit vielen Jahren nicht mehr akzeptiert werden.

Im Übrigen musste ich erkennen, dass es keine einheitliche Definition - weder im Deutschen noch im Englischen - für Retuschieren / retouching oder (Bild-) Bearbeitung resp. editing gibt. Auch die Grenzen dazwischen scheinen sehr verschiebbar. Da scheint jeder etwas anderes bezüglich der Quantität sowie der Qualität der Arbeiten zu verstehen. (Siehe hierzu auch das Testvideo zur Bildbearbeitung einer identischen RAW-Aufnahme durch 7 Berufsfotografen sowie die englische Textanalyse dazu.) - Wie definieren Sie diese Fachausdrücke?

Persönlich neige ich dazu, Retusche als etwas zu bezeichnen, bei dem ich störende Elemente im Bild (z.B. Müll im Gras) entferne, wobei ich aber den Bildausschnitt belasse.
Eine Beschneidung des Bildausschnittes, damit z.B. das Störende rechts unten in der Ecke nicht mehr sichtbar ist, würde ich hingegen eher zur Bildbearbeitung / zum editing zählen. - Aber das ist kein Naturgesetz. Große Retouching-Agenturen in den USA bezeichnen z.B. jegliche Veränderung am (RAW-) Bild als Retusche - also auch die Änderung der Bildhelligkeit oder des Weißabgleichs.
Sie sehen, wie schnell es kompliziert wird. Und hier habe ich die Unterschiede genau erklärt. Viele Fotografen diskutieren erregt über Dinge, die sie überhaupt nicht definiert haben.

In zahlreichen Diskussionen wird dann noch zwischen einfacher, normaler und extensiver / umfangreicher Retusche respektive Bildbearbeitung unterschieden, wobei vermutlich der Zeitaufwand gemeint ist. Aber auch diesen definieren die Personen nicht. Wie definieren Sie die drei Zeiträume / Aspekte?

Im Übrigen scheint da auch knallharte Politik hineinzuspielen, vor allem von durchaus zurecht besorgten Ärzten, alternativen Vereinen, Frauenorganisationen, der Ökobewegung, linken Gruppen bis hin zu Gegnern der global agierenden Software-Industrie.

Da werden Slogans propagiert wie: Zu seinem Körper und seinen Unzulänglichkeiten stehen (body-positivity), den ungesunden Zwangsvorgaben der Medienwelt trotzen, natürliche Selbstorientierung, Selbstfindung, Entsagung etc. Das klingt alles esoterisch wundervoll, solange man sich das leisten kann.

Auf der anderen Seite sind es die harten Fakten, welche junge Menschen dazu zwingen, Fotos von sich retuschieren zu lassen. Ansonsten werden sie nicht zu Vorstellungsgesprächen etc. eingeladen. Wer etwas anderes behauptet, der hat vom Personalmanagement und der Stellenvergabe sowie von Partnerbörsen, sozialen Medien etc. keine Ahnung.

Andere Fotografen, welche um das Problem wissen, drücken sich dann letztendlich dennoch um die eigene Aussage, indem sie behaupten, etwas Retusche sei erlaubt. Aber wie definieren Sie dieses Etwas? Ab wann ist welche Retusche zu viel?

Manche werden nun einwenden: Eine Grenze muss gezogen werden, sobald das Bildergebnis idealisiert oder unrealistisch wird. Das klingt wundervoll. Aber ist z.B. ein 40 KG-leichter Hungerhaken unrealistisch? Bedauerlicherweise nein, solche dürren Models existieren weltweit. Auch, wenn Ärzte dies für einen krankhaften Zustand halten. Deshalb gibt es in manchen Staaten wie Israel Gesetze gegen Models mit einem zu geringen BMI, oder das französische Gesetzt (L2133-2) vom Oktober 2017, welches eine Deklarationspflicht von retuschierten Fotos von Models vorsieht. Auch Norwegen erzwingt seit 2021 per Gesetzt die Offenlegung von Bildveränderungen. - Aber auch das hilft letztendlich nicht, weil es auf einem Foto kaum nachmessbar ist. - Was soll somit die Grenze sein? Existieren überhaupt intersubjektiv kommunizierbare Grenzen? Welche Maßstäbe wollen Sie anlegen?

Vorsicht: Ganz bewusst habe ich hier die Porträtfotografie gewählt, weil dort am meisten gestritten wird. Aber das betrifft auch andere Fotostile. So entscheiden Zeitschriftenverlage den (aktuell erlaubten und erforderlichen) Retuscheumfang meist anhand des Artikels, der Zielgruppe und des Magazins. Um gleich noch ein Argument draufzusatteln: Sogar im Nachrichtenbereich wird retuschiert. Selbst das stundenlang von Photoshop-Profis retuschierte Bild eines inszenierten Fotos im Nahen Osten gewann vor ein paar Jahren den internationalen Press-Award (World Press Photo 2013). Die Auszeichnung wurde auch nach Bekanntwerden der weitgehenden Fälschung nicht aberkannt.

Des Weiteren griff die eher strenge US Federal Trade Commission Division of Advertising Practices (Werbeaufsicht) mit ihrer Truth in advertising squadron Anfang der 2020er Jahre erst ein, wenn das Bild durch Retusche die Eigenschaften und Leistungen des Produkts eindeutig falsch darstellt. So darf man in den USA bei Muskelaufbaupräparaten z.B. die Testpersonen danach nicht mit größeren Muskeln darstellen als real erzielt, oder bei Abmagerungskuren nicht künstlich verschlanken. - Das war es dann auch schon. Es gibt noch nicht einmal eine allgemein akzeptierte Definition für unretouched - also Fotos, die angeblich nicht retuschiert sind.

Ferner werden viele Puristen erstaunt sein, was heute einer der strengsten Wettbewerbe für Landschaftsfotografie alles erlaubt. Post-processing remains a critical part of realizing the potential of an image and the vision of the photographer. - Die Nachbearbeitung bleibt ein entscheidender Bestandteil, um das Potenzial eines Bildes und die Vision des Fotografen zu erkennen.

Daneben wurde bereits früher - zur analogen Zeit - gnadenlos an Negativen und Positiven retuschiert. So besitze ich ein Foto eines Vereinsvorsitzenden im 19. Jahrhundert, bei dem eindeutig die Beine in einem Kostüm verschlankt wurden. Das Thema hat somit nichts mit der Zeit oder mit dem Geschlecht zu tun. - Zufällig fand ich noch diesen Artikel zu einem Retusche-Lehrbuch von 1868 für Negative (Complete Self-Instructing Library of Practical Photography) und über die Zeit des Victorianismus. Ein weiterer Artikel zur Retusche im Victorianismus. Hier noch ein weiteres Lehrbuch zur Retusche aus dem Jahr 1898. Zum Schluss noch ein Video zur Retusche im 19. Jahrhundert. Sie belegen, dass die Retusche im 19. Jahrhundert bereits grundlegender Bestandteil jeder Fotobearbeitung war.

Falls Gesetze diese Sache jemals wirklich einschränken sollten, werden Künstler auf ihre künstlerische Freiheit pochen und dann das alles zu Fall bringen. Wenn Sie einmal sehen wollen, was sich Künstler - einschließlich dem Diebstahl fremder Fotos und dem Verstoß gegen das Recht am Bild sowie Urheberrechte, und natürlich dem Datenschutz (DS-GVO) Anfang der 2020er Jahre so erlaubten, dann empfehle ich diesen englischen Artikel, der zeigt, wie ein italienischer Künstler selbst brutalste Verletzungen täuschend echt in Bilder hineinzaubert. - Aber es funktioniert sowieso auch mit Kosmetik bis hin zu Body-Painting, mit welchen man Menschen drastisch hin zum Positiven verändern kann. Diesen Trend erkenne ich im Übrigen seit den 2010er Jahren im Fotobereich zunehmend. Es gibt kaum ein professionelles Fotoshooting mit Personen mehr, ohne dass eine erfahrene Kosmetikerin, Friseurin etc. dabei ist. Das reicht hin bis zu Modeberaterinnen für körperbetonende Kleidungsstücke - auch mit Korsetts. Jene Personen sind nicht nur so wichtig wie die Fotografen, sondern inzwischen auch so teuer.

Wie viel Bildbearbeitung und Retusche halten Sie somit für vertretbar - absolut oder je Fotostil?

Ketzerisch erinnert mich diese Frage immer an meinen geschäftsorientierten Metzger: Darf es auch etwas mehr sein?

Hinzufügen

Noch deutlicher wird der Standpunkt beim Hinzufügen von nicht vorhandenen Dingen in Bildern.

Auch ich war bass erstaunt, als ein Fotograf in einem Fotoclub stolz ein Bild präsentierte, in das er mehrere Schwäne hineinkopiert hatte, welche scheinbar in einer gemeinsamen Aktion einen anderen Schwan gezielt und koordiniert von mehreren Seiten angriffen. Dumm ist nur, dass dies biologisch nicht funktioniert. Schwäne sind nun einmal keine derart sozialen Wesen wie z.B. Orca-Wale oder Bienen.

Bei einer Umfrage würden sicherlich die meisten Fotografen sich pauschal auf die Seite der Puristen stellen und behaupten, dass Hinzufügungen generell nicht akzeptabel sind.

In der Produktfotografie ist dies heute jedoch die Regel. Mittels Freisteller ausgeschnittene Motive werden in Prospekten mehr oder weniger gelungen zusammengestellt. Sogar unterschiedliche Kleidungsstücke werden einem teuren Model virtuell angezogen.

Die aufwendigsten derartigen Kombinationen werden im Übrigen bei Werbevideos für bestimmte Produkte verwendet: Da zaubert man virtuell meterlange perfekt fallende Dauerwellen einem Fotomodell auf den in der Realität mit einer Art Bademaske bedeckten, glatten Kopf, oder virtuelle Schokolade fließt gezielt in eine Schale etc. Es ist erstaunlich, wie viele Menschen das für echt halten und mit mir bereits stritten, wie gut jenes Produkt deshalb sei.

Die Motive für das Hinzufügen sind oft finanzieller Natur: Bis man so etwas in Echt produziert hätte, dauert es zu lange und ist zu teuer.

Tierfotografie

Am strengsten scheinen mir derzeit noch die Kriterien bei der Tierfotografie zu sein.

Puristen grenzen da deutlich Aufnahmen dressierter Tiere, im Zoo, im Freizeitpark, Wildtierfarm, im Naturschutzgebiet, Reservat, Nationalpark bis hin zur freien Wildbahn voneinander ab. Die Fachleute mögen mir diese extrem laienhafte und grob vereinfachende Einteilung für Normalfotografen verzeihen. Hier z.B. die Regeln der NANPA / Rules.

Aber wo liegen da die Grenzen? Ab wann ist ein Tier dressiert? Wo hört ein Zoo / Freizeitpark auf und fängt ein Naturschutzgebiet respektive ein Nationalpark an.

Und wie ist die freie Wildbahn definiert. Faktisch existiert sie schon lange nicht mehr. Die Menschen haben durch Überbevölkerung getrieben den Raum zersiedelt und zerteilt. Also kann man nur noch über die Größe der Nationalparks und Wildschutzgebiete sprechen: ab 1 Quadratkilometer Fläche, ab 10, ab 100, ab 1.000, oder ab 10.000 Quadratkilometern?

Oder geht es um den Zustand jener Gebiete, der oft eher desolat ist?

Und wie sieht es mit den Tieren aus, die selbst ihr Verhalten umgestellt haben und inzwischen in der Großstadt auf Beutezug gehen (Füchse, Wildschweine, Krähen etc.)?

Auch bei Tierfotografen wird darüber trefflich gestritten, sodass diese Fragen keineswegs glasklar zu beantworten wären. Denn generelle Verbots-Regeln sind sehr vage: alteration beyond standard optimization - Änderung, welche über die Standardoptimierung hinausgehen. Oder wie definieren Sie genau Ethical Photography - ethische Tierfotografie?

Auch solche Aussagen, wie die Folgende, sind sehr vage: End up with the best image possible - without compromising its integrity. - Alles ist erlaubt, um am Ende das bestmögliche Bild zu erhalten - ohne dessen Integrität zu verletzen. - Ja, was nun?

Ferner erstaunt es dann etwas, dass bei Tierfoto-Wettbewerben von den angeblichen Fachleuten, welche nicht müde werden, andere Fotografen zu diskreditieren, dann sogar ausgestopfte Tiere nicht erkannt werden, und derartige Fotos Preise erhalten.

Selektives Sehen und selektives Fotografieren

Man kann nur aufnehmen was man sieht. Werden zwei Fotografen auf dasselbe Motiv losgelassen, dann liefern sie völlig unterschiedliche Fotos. Jeder sieht etwas anderes in / an dem Motiv. Das ist keine Bewertung der Fähigkeiten des Fotografen, sondern schlichtweg eine Tatsache.

Einen Sonnenaufgang, den man verschläft, kann man nicht fotografieren. Aber die Realität ist, dass die Sonne dennoch aufgegangen ist.

Einen Vollmond, den man nicht aufnimmt, weil man die Kamera zu Hause vergessen hat, findet dennoch statt.

Wenn im Herbst und Winter der Bodensee im tiefen Nebel liegt, dann ist es natürlich die Realität auf Seehöhe, dass für die meisten Bewohner sich der Morgen kaum vom Mittag oder Abend unterscheidet. Deshalb fotografiert man das auch eher selten. Dennoch sieht es wenige hundert Meter darüber bereits ganz anders aus.

Eine Stadt oder ein Land, das man nicht besucht, kann man logischer Weise auch nicht fotografieren. Dennoch sind sie Realität.

Ein Tier, das sich im Gebüsch etc. gut versteckt, kann man auch nicht fotografieren. Oder anders herum: Es würde niemand tun. Denn der Kommentar: Hinter dem Grünzeug verbirgt sich der Tiger beeindruckt heute nicht mehr wirklich.

Schließlich wäre da noch die Einschränkung der Dimension: Menschen sehen meist dreidimensional. Aber Fotos und Videos sind überwiegend zweidimensionale Werke.

Dann gäbe es da noch die (meist altersbedingten) Sehhilfen: Brillen, mit und ohne Gleitsichtglas, oder Sonnenbrillen mit den unterschiedlichsten Farbtönungen. Jede Sehhilfe stellt die Natur anders dar. Oder dürfen nur die (noch) am besten sehenden Kinder fotografieren, weil nur sie die Welt realistisch erkennen.

Es stellt sich somit die ernst gemeinte Frage, ob Fotografen wirklich die Realität abbilden oder überhaupt abbilden können.

Zeitgeist und Geschmack

Mein englischer Landlord in London sagte mir einmal beim Besuch seines (Royal) Modell-Eisenbahn-Klubs, dass in Wirklichkeit Güterwagons anders aussehen und insbesondere früher anders aussahen. Vor allem die Dächer waren verrostet und völlig verrußt, wie man von jeder Eisenbahnbrücke auf die Züge hinunterblickend auch selbst erkennen konnte. Aber das will niemand sehen. Deshalb sind Modelleisenbahnen immer perfekt lackiert.

Zeigen Fotografen immer die Realität?

Dass ein Greifvogel eventuell sehr lange über der Erde kreist, um seine Beute zu erspähen, ist zwar nett, aber nicht besonders fotogen. Deshalb finden sich viel mehr Fotos von Raubvögeln im Sturzflug - entweder beim oder kurz nach dem erfolgreichen Beutefang.

Aber nicht alles wird publiziert. Der Westen hat z.B. ein völlig gestörtes Verhältnis zum gnadenlosen Überlebenskampf in der Natur. Folglich wird kaum ein Magazin Fotos von Greifvögeln zeigen, wie sie dem erlegten Tier die Augen auspicken, oder von Raubtieren, welche ihre Beute komplett zerfleischen.

Vor allem deutlich wird dies in Westeuropa, wo in den letzten Jahren das gefährlichste Raubtier zu Lande - der Eisbär - verniedlicht wird, der in Wirklichkeit als hervorragender Schwimmer bis zu 150 Kilometer am Stück schwimmen kann, nun aber auf einer kleinen Eisscholle treibend als gefährdetes Symbol der Natur dargestellt wird. Fotos, wie Eisbären kleine Robbenbabys zerfleischen - ihre Hauptbeschäftigung - sind unerwünscht.

Dies reicht bis in das Detail. So haben wir in unserer Kultur gewisse Vorstellungen, wie bestimmte Tiere zu fotografieren sind. Weicht der Fotograf davon ab, indem er manche Fotos aus der Natur zeigt, wird dies erstaunlicher Weise als unnatürlich abgewertet.

Es stellt sich somit die ernst gemeinte Frage, ob Fotografen wirklich die Realität abbilden (dürfen), so wie sie ist, und ob Betrachter die Realität so abgebildet sehen wollen, wie sie ist?

Die Realität bei Familienaufnahmen im öffentlichen Bereich, Parks etc. ist so, dass oft jemand durchs Bild läuft oder auf andere Weise die Aufnahme stört. Folglich warten die meisten Fotografen einen Zeitpunkt ab, in dem sie eine ungestörte Aufnahme machen können. Und selbst, wenn Sie mehrere Aufnahmen machten, bei denen störende Personen auf dem Bild zu sehen sind, dann werden die meisten Fotografen jene Bilder aussortieren. Auch Aufnahmen, bei denen viele oder alle fotografierte Personen die Augen geschlossen haben, werden die meisten Fotografen aussortieren. Faktisch ist dies nichts anderes als eine Retusche.

Die Realität ist bei vielen Fotografen, vor allem in der Anfangszeit, dass man Aufnahmen verwackelt, oder sie nicht optimal fokussiert sind. Die meisten Fotografen werden im Laufe der Zeit jene suboptimalen Fotos aussortieren. Die Realität war und ist allerdings nun einmal, dass nicht alle Fotos perfekt gelingen. Dennoch wollen die meisten ganz offensichtlich diese Realität nicht darstellen. - Und dies geschieht im Bewusstsein, dass niemand so etwas sehen will.

Ferner stellt sich die Frage, ob Fotografen wirklich die ganze Realität abbilden. Machen Sie wirklich jede Sekunde ein Foto? Ganz abgesehen von so zeitraubenden Dingen wie Schlafen, Aufstehen, Waschen, nimmt kaum jemand das eigene Alltagsleben oder die Fahrten zum Zielort auf. Erst am Ort des ausgewählten Fotoshootings wird fotografiert. Selektion ist die Regel und nicht die Ausnahme. - Selbst moderne Videografen, welche einen Tag im Leben des/der X darstellen, können einen zu Tode langweilen, indem sie Banales zeigen, das einfach niemanden interessiert. Obwohl auch dies bereits extrem verkürzt und komprimiert ist. Denn niemand schaut sich freiwillig ein 24-Stunden-Video an, in welchem gezeigt wird, womit man auch selbst die meiste Zeit des Tages verschwendet. - Deshalb bezweifle ich grundsätzlich, dass Fotografen und Videografen die Realität darstellen.

In Büchern zur künstlerischen Fotografie wird z.B. explizit gefordert, dass man mit einem vorher klar definierten künstlerischen Konzept an das Thema und die dann durchzuführende Fotografie geht. Das hat mit Abbilden der Realität nichts zu tun, wenn man wie in diesem Fall plant und bewusst vorab auswählt. Bei den anderen Fotografen könnte man noch unterstellen, dass die Auswahl eben unbewusst abläuft. Aber bei künstlerisch tätigen Fotografen ist dies per Definition ausgeschlossen. Diese planen alles bis in das Detail voraus. Da wird nichts dem (realen) Zufall überlassen. - Ob die Auswahl nun bewusst oder unbewusst erfolgt, es wird nicht die ganze Realität abgebildet, sondern immer ausgewählt. Das ist legitim. Aber es ist unzulässig, diese Auswahl nachher als die ganze Wahrheit zu bezeichnen.

Diese selektive Auswahl geht sogar noch viel weiter: Jeder, der einmal für Zeitungen, Magazine, Bücher etc. gearbeitet hat, weiß, dass man mehrere Fotos einreichen muss, und der Redakteur dann je nach Artikel, politischer Richtung, Lenkungsweise etc. davon dann ein bestimmtes Foto auswählt, das ihm zu seinem Zweck am besten zu jenem Artikel oder (Buch-)Kapitel und der zu vermittelnden Idee passt. Auch ich war da manchmal über die letztendlich getroffene Auswahl und den Beschnitt erstaunt. - Nicht, weil das von mir eingereichte Foto unzutreffend etc. gewesen wäre, sondern weil es meiner Meinung nach durch den Beschnitt und vor allem im Zusammenhang mit dem unterlegten Text nicht immer ganz der von mir am Ort erlebten Realität entsprach. - Geschickt verwendete Fotos besitzen auch die Kraft, Meinungen zu bilden oder zumindest zu unterstützen, Ideologien zu befördern und einen gewissen Lebensstil zu propagieren.

Leser, die schon länger auf meinen Seiten stöbern, wissen, dass Artikel bei mir über Wochen langsam entstehen. Gestern war ich z.B. bei starkem Nebel segeln. Foto unten.

Nebel

Nebel auf dem Bodensee im September. Das Bild ist so uninteressant, dass ich nicht einmal Angst habe, dass es mir jemand stiehlt. Deshalb ist auch kein Wasserzeichen eingefügt.

Man sieht: wenig bis eigentlich nichts. Wen hätte dies gewundert. Aber das war / ist die Realität hier im Herbst und Winter. Das ist ganz nebenbei auch ein Grund, warum in dieser von der Sonne verwöhnten Region mit dem Beginn der Nebelsaison die Selbstmordrate exponentiell ansteigt und die Züge wieder ausfallen oder wegen Personenschäden extreme Verspätungen aufweisen.

Aber das Reale war, dass diese Segelfahrt - Sie erkennen den Wind an dem ausgestreckten Spion (wehenden Faden mit Stofffetzen in den Wanten rechts oben) - sehr aufregend und spannend war. Es ist schon abenteuerlich, wenn man bei nur ca. 100 Meter Sicht weder Ufer noch andere Schiffe um sich herum sieht. Wenn kurz vor einem das große Passagierschiff mit über 30 km/h plötzlich auftaucht - mit Kurs exakt auf einen zu, der Kapitän wieder einmal trotz dutzender Segelboote auf jenem Seeteil - nicht auf sein Radar schaute, weil er sich mit seinem Kontrolleur unterhielt, und erst im letzten Augenblick noch einen Schlenker hinlegt, der zusammen mit meinem eigenen Notfall-Ausweichmanöver einen Zusammenprall verhindert. Mit keinem Foto kann ich dieses Abenteuer vermitteln. Ferner kann ich auch nicht fotografisch darstellen, wie kalt der feuchte Nebel war, der durch einen Wind mit 2-3 Beaufort über den See getrieben wurde, (trotz Segelpullover war es bitter kalt). Nur indirekt kann man Kälte über die Gänsehaut und die zu Berge stehenden Haare oder nachträgliche Manipulation der Blauwerte (die für Kälte stehen) darstellen. Ferner kann ich fotografisch auch nicht darstellen, wie der See bei Nebel und Wind riecht. Auch, wenn jetzt Chemiker zurecht einwenden, dass H₂O geruchlos ist, so können erfahrene Bodenseefischer anhand des durch die biologischen Anteile des Wassers erzeugten Geruches des Sees das Wetter vorhersagen. Und der Wind treibt diese Gerüche auf das Segelboot, Gerüche, für die man - ohne Sicht - noch empfänglicher wird. - Erstaunlicher Weise finden derartige Abenteuer nur real statt - oder im Kopf des Lesers respektive Zuhörers. Deshalb halte ich die Fotografie für kein wirklich geeignetes Medium, um die Wirklichkeit darzustellen.

Überdies gehe ich davon aus, dass Sie nicht 10.000 derartiger Nebel-Fotos sehen wollen. Fast alle Besucher und Betrachter wollen die folgenden Fotos von der Urlaubs-, Traum-, Sehnsuchtsregion Bodensee sehen: Birnau, Mainau, Meersburg - und natürlich alles bei strahlendem Sonnenschein, obwohl der Bodensee seit je her ein typisches Sommer-Regen-Klima aufweist. Letzteres wird komplett ausgeblendet.

Birnau

Klosterkirche Birnau Überlingersee.

Mainau

Insel Mainau im Überlingersee.

Meersburg

Meersburg im Obersee.

Sonnenuntergang am Überlingersee

Sonnenuntergang am Überlingersee. Der darf nie fehlen! - Seufz.

Fälschung

Nicht selten arten Diskussionen zwischen den gegnerischen Gruppen zu hitzigen Wortgefechten aus, in denen die Puristen den PC-Software-Anhängern eine vorsätzliche Fälschung unterstellen.

Selbstverständlich kann man mit Technik fälschen - auch Bilder. Man konnte seit mindestens 2020 auch Bilder sogar aus nichts am PC erstellen (3D CGI). Seit 2023 erschütterte GenKI (Generative Künstliche Intelligenz) mit noch viel hochwertiger erzeugten Bildern durch Texteingabe die Fotowelt. Die eigentliche Frage ist allerdings, warum Menschen diese Technik dazu verwenden, um etwas zu fälschen. Kein Mensch würde auf die Idee kommen, einen 35-Euro-Schein zu fälschen. Es werden somit nur Dinge gefälscht, welche in den Augen der anderen Menschen einen Wert besitzen. Daraus folgt jedoch die ernüchternde Einsicht, dass ein gefälschter (weil ausgetauschter) Himmel, der vielen Betrachtern gefällt, dann für jene Betrachter einen Wert zu haben scheint. Somit bleibt die viel weitergehende Frage, warum Menschen vielen Fälschungen einen Wert beimessen?

Aber diese Frage kann ich Ihnen nicht beantworten.

Vorsichtig wäre ich im Übrigen mit dem voreiligen Schluss, dass das eben alle strunz-dumme Menschen wären. Da gibt es nämlich eine faszinierende Fotogeschichte, die zum Ende des ersten Weltkrieges und kurz danach in England spielte. Neben zahlreichen Berufsfotografen und Kodak fiel selbst der Schriftsteller Sir Arthur Conan Doyle, der Erfinder des wohl logischsten Detektiven (Sherlock Holmes), herein. Die Feenphotos geisterten durch große Teile der damaligen Oberschicht. - Jene von zwei jungen Mädchen inszenierten Cottingley Fairies lebten noch Jahrzehnte in weiten Kreisen der Bevölkerung nach. Selbst als die zwei Fotografinnen 1983 ihre Fälschungen teilweise einräumten, wollten das viele Menschen nicht wahrhaben.

Manche Analytiker vermuten, dass es oft sogar sehr intelligente Menschen sind, welche sonst mit beiden Beinen fest in der Realität verwurzelt sind, jene allerdings nicht ertragen können, so schlecht, wie sie real nun einmal ist.

Und noch eine ernüchternde Erkenntnis: Sophie J. Nightingale, Kimberley A. Wade und Derrick G. Watson untersuchten 2017 als erste ausführlich, ob Menschen manipulierte Fotos erkennen:
Subjects demonstrated a limited ability to detect original and manipulated images. Furthermore, across both experiments, even when subjects correctly detected manipulated images, they were often unable to locate the manipulation.
Die Probanden zeigten eine eingeschränkte Fähigkeit, Original- und manipulierte Bilder zu unterscheiden. Darüber hinaus waren die Versuchspersonen in beiden Experimenten selbst dann, wenn sie manipulierte Bilder korrekt erkannten, häufig nicht in der Lage, die Manipulation zu lokalisieren.
Also selbst, wenn man die Leute darauf hinweist, dass eines von zwei vorgelegten Fotos gefälscht ist, können nur wenige dies erkennen.

Fazit

Historisch betrachtet bewegte sich die Fotografie in den letzten rund 200 Jahren immer irgendwo zwischen Realität und künstlerischer Fiktion.

Könnte es sein, dass diese Nicht-Verortbarkeit einen der Anreize darstellt, welche die Fotografie auch heute noch am Leben erhält?

Weiterhin viel Freude beim Fotografieren - gleichgültig, wie Ihre hochwertigen Bild-Endprodukte entstehen.

Hinweis: Jahre nachdem ich auf jene Dinge mit diesem Artikel hingewiesen hatte und dafür unzählige Beleidigungen sowie Bedrohungen erhielt, jammerten exakt jene Kritiker über die seit 2023 über sie hereinbrechende (Gen-)KI (Generative Künstliche Intelligenz) und wie sie ihr Hobby sowie ihren Beruf bedrohte. Dabei benutzten jene exakt die obigen Argumente, aber - wie immer - falsch.

Hilfe / Feedback

Liebe Leserinnen und Leser,

damit diese umfangreichen, kostenlosen, wissenschaftlich fundierten Informationen weiter ausgebaut werden können, bin ich für jeden Hinweis von Ihnen dankbar.

Deshalb freue ich mich über jede schriftliche Rückmeldung, Fehlerkorrekturen, Ergänzungen, Neue Informationen etc. Ihrerseits per E-Mail oder Kontakt-Formular.

Um meine Neutralität zumindest auf dem hier beschriebenen Feld der Fotografie und Videografie wahren zu können, nehme ich bewusst von keinem Hersteller, Importeur oder Vertrieb irgendwelche Zuwendungen jeglicher Art für das Verfassen der absolut unabhängigen Artikel an. Auch von Zeitschriften oder Magazinen aus dem Fotobereich erhalte ich keinerlei Zuwendungen.

Deshalb freue ich mich, wenn Sie mein unabhängiges Engagement für Sie durch einen gelegentlichen Kauf bei Amazon über die hier angegebenen Links unterstützen. Es ist gleichgültig, welches Produkt Sie über diesen Link kaufen. - Es kann auch jede andere Ware außerhalb des Fotobereiches sein. Alle Preise sind und bleiben für Sie gleich niedrig, wie wenn Sie direkt zu Amazon gehen. Aber durch Ihren Klick auf meinen Link erhalte ich evtl. Monate später eine sehr kleine prozentuale Prämie (Cents je Kauf), welche mir hilft, die hohen Kosten bei der Erstellung der Artikel zumindest teilweise zu decken. - Bitte starten Sie Ihre Einkäufe bei mir.

Herzlichen Dank an alle für Ihre bisherige Unterstützung.

Ja, ich möchte die Unabhängigkeit dieser Seite unterstützen und kaufe über diesen Link bei Amazon

Pflichtangabe: Als Amazon-Partner verdiene ich an qualifizierten Verkäufen. Alle derartigen sogenannten 'bezahlten Links' zu Amazon sind farblich in Rot gekennzeichnet.

Ich wünsche Ihnen weiterhin viel Freude beim Fotografieren und Filmen.

Foto Video Design - Dr. Schuhmacher

Anfang

Inhalt