Autor Thema: Offtopic - Spotten" in IR - Hubschrauber static und dynamic  (Gelesen 3864 mal)

Offline anthracite

  • Jr. Member
  • **
  • Beiträge: 78
Das Mitglied Zille schreibt immer in einem sehr gelehrten Stil, was leicht verdeckt, dass er viele falsche oder zumindest fragwürdige Aussagen macht.

Deshalb ist es vollkommen sinnfrei, »vor Ort auf sonnenbeschienenes Blattgrün« einen Weißabgleich machen zu wollen.
Das ist nicht völlig sinnfrei, sondern sehr nützlich, um bereits am Display beurteilen zu können, ob das Motiv für Infrarot geeignet ist. Bei umgebauten Kameras kann im LifeView bzw. bei Spiegellosen auch im Sucher dies sogar schon vor der Aufnahme beurteilt werden.
Manchmal gefällt mir diese Braun-Weiß-Interpretation sogar besser als Schwarz-Weiß oder das übliche Blau-Weiß-Farbinfrarot, dann mache ich die weitere Bildbearbeitung auf Basis des JPG. Meistens verwende ich aber das Raw und ignoriere die JPGs in der Bildbearbeitung.

Zitat
Um Zeit, Mühe, Nerven und Batteriestrom im Feld zu sparen, kann man auf den Weißabgleich insgesamt verzichten
Da die meisten Kameras einen manuellen Weißabgleich speichern können, braucht dieser nur einmalig vorgenommen zu werden und kostet daher weder Zeit, Nerven noch Batteriestrom.

Zitat
Statt dessen setzt man in den Kamera-Einstellungen den Wert für den Weißabgleich auf einen festen Wert, um die mehr oder weniger starke Färbung des Filters kompensieren zu können. Bei den IR-Filtern mit etwa 700nm ist der niedrigste Wert (bei Nikon-Kameras 2500 K) gerade richtig.
Der manuelle Weißabgleich auf den grünen Rasen erlaubt wesentlich extremere Werte als die Einstellung einer Farbtemperatur und ist deswegen mMn. hilfreicher.

Zitat
Hingegen werden in der digitalen Fotografie die Farben aus den Helligkeitsdifferenzen berechnet, die zum Beispiel durch den vor dem Sensor liegenden Bayer-Mosaik-Filter entstehen
Das ist nicht richtig. Über Helligkeitsdifferenzen kann man gehen, wenn z. B. alte Schwarz-Weiß-Filme koloriert werden sollen. Bei Digitalkameras mit Bayer-Sensor hingegen sorgt der Bayer-Filter in den drei Grundfarben Blau, Rot und Grün dafür, dass jedes Pixel nur die Helligkeit genau einer Farbe (genaugenommen eines Frequenzbereiches) empfangen kann. In der Kenntnis, welches Pixel unter welchem Filter des Bayer-Filters liegt, hat damit im Raw-Bild jedes Pixel bereits eine Farbe, wenn auch nur eine der drei Grundfarben. Die endgültige Farbe wird durch Interpolation der Farbinformationen benachbarter Pixel berechnet.

Zitat
Raw-Daten haben folglich noch keine Farben, keine Kanäle
Von Leuten, die Ahnung von Fotografie aber keine Ahnung von Informatik (insbesondere Dateiformaten) haben, wird das gerne behauptet. Das ist aber schlichtweg falsch! Raw-Daten haben sehr wohl Farbinformationen, allerdings eingeschränkt auf die drei Grundfarben Rot, Grün und Blau, s. o.. Und das sind exakt die drei Farbkanäle. Lediglich das mit dem Weißabgleich stimmt; der ist hier noch nicht vorgenommen worden.
« Letzte Änderung: 18. März 2017 - 10:59:02 von Dirk »

Offline el_Pano

  • Jr. Member
  • **
  • Beiträge: 86
Re: Re:
« Antwort #1 am: 01. März 2017 - 21:02:06 »
jetzt wirds wieder unterhaltsam

Offline Tom2007

  • Full Member
  • ***
  • Beiträge: 111
Re: Re:
« Antwort #2 am: 02. März 2017 - 20:49:43 »
Ah, es kommt wieder etwas Leben in die Bude  :prost:

Offline zille

  • Hero Member
  • *****
  • Beiträge: 1033
Re: Re:
« Antwort #3 am: 03. März 2017 - 00:36:20 »
@ anthracite:
Was Du mit dem Exiftool machst, ist sehr interessant. Und mir wird daraus klar, weshalb Du zu der irrigen Meinung kommst, Raw-Daten hätten Kanäle. Du hast einige Details übersehen:

Sensoren sind aus vielen, vollkommen gleichen lichtempfindlichen Teilen aufgebaut. Jedes dieser Teile kann Licht registrieren und in elektrische Ladungszustände umwandeln. Die Höhe dieser Ladungszustände werden gemessen und gespeichert – mehr nicht. Insofern ist der Teil einer Raw-Datei, die das spätere Bild ausmacht, lediglich ein Haufen Ladungszustände. Hat ein Pixel viel Licht abbekommen, wird es mehr elektrische Ladung generieren, was nach der Interpretation der Raw letztlich für einen helleren Punkt im fertig generierten Bild steht. So ein puristischer Sensor wird in der Leica M monochrom eingesetzt.

Da alle Pixel gleich sind, kann es folglich nicht Pixel geben, von denen manche die eine, andere eine andere Farbe registrieren, wie wir es von den drei unterschiedlichen Zapfentypen im menschlichen Auge kennen. Sofern man Farben abbilden möchte, muss man einen technischen Trick anwenden – der erste praxistaugliche und am bekannteste davon war der Einsatz des Bayer-Mosaik-Filter. Da setzt setzt man vor jedes Pixel ein Filter in den Grundfarben rot, grün oder blau und macht sich das Wissen zu nutze, dass Licht einer bestimmten Farbe von einem Filter gleicher/ähnlicher Farbe weniger beeinflusst wird, also weniger gesperrt wird. Das heißt, wenn vom Licht einer bestimmten Wellenlänge, das durch die drei Filter des Bayer-Mosaik-Filter geschickt wird, hinter dem roten Filter ein größere Menge registriert wird als hinter dem blauen und grünen Filter, kann man aus dieser (Helligkeits-)Differenz schlussfolgern, dass das vor den Filter herrschende Licht mehr rot als blau und/oder grün gewesen sein muss. Nach wie vor hat jedes Pixel nur Helligkeitswerte registriert – aber jetzt wird einer bestimmten Zahlenfolge eine bestimmte Farbe zugeordnet. Entweder nach Sicht, Erfahrung oder auch ganz und gar willkürlich. Es braucht nur noch ein wenig Rechenleistung, um aus den eigentlichen puren Helligkeitsinformationen, die von jedem Pixel registriert werden, die nebenliegenden Farben zu errechnen. Das macht jede Kamera mit der internen Software und zeigt uns dann ein kleines jpg-Bild an, das im Raw-Container unter anderem neben den Helligkeitsinformationen und Interpretationsbefehlen integriert wird.

Weshalb also sollte eine Raw-Datei Kanäle haben, wenn doch in dieser noch gar keine Farben, sondern nur der Haufen Ladungszustände und die Verarbeitungsanweisungen, vorhanden sind? Die unterschiedlichen Kanäle werden nur gebraucht, um unterschiedliche Farbinformationen zu speichern, die aber noch gar nicht vorhanden sind. Dieses Grundlagenwissen kann man sich im übrigen auch auf eine recht einfache Weise vergegenwärtigen: Man muss aus einer RGB-Datei, die bekanntlich drei Kanäle hat, nur jeweils zwei Kanäle löschen. Dann sieht man, das die farbige Datei aus reinen Schwarz/Weiß-Informationen aufgebaut ist. Und es wird klar, weshalb eine unkomprimierte mehrkanalige Bilddatei immer größer ist als eine Raw-Datei, die eben noch keine verschiedene Kanäle hat.

Sicherlich kann folgendes nicht als logisches Argument dienen – zum Nachdenken ist es aber gut genug: Also, weshalb bietet der weltweit führende Hersteller von Bildbearbeitungssoftware Adobe keine Möglichkeit, Kanäle direkt in Raw-Daten zu tauschen? Weshalb ist das ebenso bei weiteren Werkzeugen von Profifotografen?
  • Weil sie es nicht nötig haben?
  • Weil sie das nicht verkaufen könnten oder wollten?
  • Oder weil es schlicht keine Kanäle zum Tauschen gibt?
Das Farben gar nicht aufgenommen, sondern lediglich definiert und errechnet werden, ist bei weitem nicht so schlimm, wie es auf den ersten Blick aussieht. Den durch die mehr oder weniger freie Interpretation kann man selbst unsichtbaren Dingen nach Ermessen Informationen zuordnen. Wie z.B. bei Wärmebildkameras, die das unsichtbares IR-Licht nutzen, um Temperaturunterschiede durch Farben zu demonstrieren. Da werden Farben ebenso vollkommen willkürlich bestimmten Werten zugeordnet, wie Du es mit dem Exiftool machst. Auch dort überschreibst Du eine Definition mit einem neuen Wert. Da aber auch alle anderen Farben in einem festen Verhältnis zueinander stehen, ändern sich diese logischerweise auch. Dazu braucht es keine Kanäle, es ist nur eine andere Interpretationsanweisung für die Raw-Datei. Du drehst also nicht – wie in der »normalen« Bildbearbeitung üblich – an den Farben selbst, Du definierst sie einfach anders! Wenn das auch nicht besonders intuitiv erscheint, so ist es doch interessant und offensichtlich sehr effizient.
»Das Vertrackte am Klarmachen des eigenen Standpunktes ist, daß man dadurch zu einem nicht zu verfehlenden Ziel wird.«
Benedictus d'Espinoza (1632 - 1677)

Offline zille

  • Hero Member
  • *****
  • Beiträge: 1033
Re: Re:
« Antwort #4 am: 03. März 2017 - 00:42:27 »
Kann man das so sagen …
Genau so ist es, eine bestimmte Stelle des Bildes wird als neutral-grau definiert (Weißabgleich ist eine nicht exakte Übertragung). Zu glauben, dass ein individueller Weißabgleich vor Ort besser oder gar »extremer« als ein voreinstellbarer Wert wäre, ist hingegen genauso richtig wie der Glaube, dass der eigene Opel Corsa wesentlich schneller läuft als der vom Nachbarn. Gut, kann man sich zur Stärkung des Ego einbilden – besser aber ist ein Versuch (also mit dem Weißabgleich, nicht mir dem Opel), und anschließender Vergleich.

Vor Ort ist man mehr Einflüssen wie Sonnenstand und mehr oder weniger frischem oder welkem Blattgrün ausgesetzt, das auch gern einmal etwas dichter oder lichter sein kann. Will man wirklich diese Unterschiede dokumentieren oder doch eher das Bild frei nach Gusto gestalten und – sofern es sich um eine ganze Serie z.B. für eine Ausstellung handelt – untereinander abstimmen, so das ein harmonischer Gesamteindruck entsteht? Spätestens ab hier dreht man wieder am Weißabgleich.

Da Deiner Kamera die Funktion »K« für »Farbtemperatur auswählen« fehlt (wahrscheinlich, weil sie als Einsteigergerät verkauft wird), kannst Du entweder auf »Natriumdampflampe 2700K« ausweichen oder musst eben doch »Eigener Messwert« Seite 83 in der Gebrauchsanleitung benutzen.

Die Graukarte oder das Blatt Papier scheint mir eher universal zu sein …
Abgesehen davon, dass Du Deine Farben gerade nicht auf das normal Grau als Ausgangswert einstellen willst, birgt schon die Formulierung einen Fehler in sich. Denn kaum ein Papier und längst nicht alle Graukarten sind metameriefrei – diese Eigenschaft ist aber eine Grundvoraussetzung für den sinnvollen Einsatz. Also wenn schon, dann nur eine metameriefreie Graukarte.
»Das Vertrackte am Klarmachen des eigenen Standpunktes ist, daß man dadurch zu einem nicht zu verfehlenden Ziel wird.«
Benedictus d'Espinoza (1632 - 1677)

Offline anthracite

  • Jr. Member
  • **
  • Beiträge: 78
Re: Re:
« Antwort #5 am: 03. März 2017 - 09:35:21 »
Weißt du, Zille, der Tonfall deiner Beiträge ist daneben. Erst beleidigst du deine Gesprächspartner und dann trägst du deine persönlichen Theorien in einem Tonfall vor, als hättest du die Weisheit mit dem Löffel gegessen.
... weshalb Du zu der irrigen Meinung kommst...
Das geht schon mal gar nicht, denn damit würdigst du deinen Gesprächspartner herab.

Zitat
Nach wie vor hat jedes Pixel nur Helligkeitswerte registriert – aber jetzt wird einer bestimmten Zahlenfolge eine bestimmte Farbe zugeordnet.
Und genau dies geschieht bereits in der Raw-Datei. Jedes Pixel wird einer Farbe zugeordnet. Zwar nur genau einer der drei Grundfarben Rot, Grün und Blau, aber damit hat die Raw-Datei bereits Farben und auch Farbkanäle.

Raw-Dateien sind ohnehin nicht so unbearbeitet, wie allgemein angenommen.

Zitat
Also, weshalb bietet der weltweit führende Hersteller von Bildbearbeitungssoftware Adobe keine Möglichkeit, Kanäle direkt in Raw-Daten zu tauschen?
Was Adobe macht, hat herzlich wenig damit zu tun, was möglich ist. Gerade bei Lightroom hätte ich eine längere Wunschliste von Änderungen, die möglich und sinnvoll sind. Und es sieht nicht danach aus, dass Adobe sie realisieren würde.

Zitat
Dazu braucht es keine Kanäle, es ist nur eine andere Interpretationsanweisung für die Raw-Datei.
Sämtliche Dateien sind nur Interpretationsanweisungen, wenn du so willst, denn intern bestehen sie nur aus Nullen und Einsen. Farben sind das noch nicht, die werden erst durch Interpretation daraus, bei einer Raw-Datei genauso wie bei einer JPG-Datei. Auch die Frage, ob ein Wert einen Ladungszustand oder eine Farbe bedeutet, ist nur eine Frage der Interpretation, für Raw und JPG gleichermaßen. Ebenso ist es vom Prinzip her unerheblich, ob einmal zu Anfang die Farben aller Pixel festgelegt werden (wie bei Raw) oder pro Pixel getrennt werde für Rot, Grün und Blau gespeichert werden. Den Unterschied bekommt eher der Programmierer zu spüren, weil in einem Falle er mehr Arbeit, im anderen weniger Arbeit hat.

Also Raws und JPG besitzen beide gleichermaßen Farben und Kanäle.

Offline zille

  • Hero Member
  • *****
  • Beiträge: 1033
Re: Re:
« Antwort #6 am: 04. März 2017 - 23:50:15 »
Nö, eine Raw-Datei hat nicht von sich aus schon feste Farben und Kanäle. Mit der ersten Interpretation der Datei wird ein Kameraprofil zugewiesen, dass von diesem Moment an für die Art der Farben und Kanäle verantwortlich ist. Da das aber schon in der Kamera passiert (sonst könnte die noch nicht einmal ein Bild im Display anzeigen) erscheint es so, als ob die Farben schon immer vorhanden gewesen wären. Und es sind keineswegs feste Farben, denn das Kameraprofil kann nicht nur RGB-Daten erzeugen. Es könnte z.B. auch Lab eingebunden werden, und dann ist die Zuordnung der Farben wie auch der Kanäle eine vollkommen andere.

Vor Jahren hatte der Kamerahersteller Nikon einen solchen Workflow beschrieben, weil Fotografen vehement die von der vorigen Kamerageneration bekannten Profile zurückforderten. Dazu wurden die Profile zum Download angeboten, die anschließend über eine Speicherkarte in die Software der Kamera geladen wurden und dort die vorhandenen Profile überschrieben. Heute muss lediglich ein (selbsterstelltes) Profil für eine bestimmte Anwendung wie z.B. Infrarot in Adobe LR, PS oder Bridge eingebunden werden. Dann werden mit einem Klick IR-Fotos auf einen Basisstand gebracht, von dem bequem alles weitere erledigt werden kann.

Was Adobe macht, hat herzlich wenig damit zu tun, was möglich ist.
In Ordnung, persönlich Befindlichkeiten gegenüber der Firma seien Dir gestattet. Da allerdings auch die anderen namhaften Hersteller von Profi-Bildbearbeitung-SW das nicht anbieten, erscheint mir Deine These wenig glaubwürdig. Aber vielleicht kannst Du nachvollziehbare Belege wie etwa Dokumentationen der Hersteller zur Untermauerung Deiner Mutmaßung anführen?
»Das Vertrackte am Klarmachen des eigenen Standpunktes ist, daß man dadurch zu einem nicht zu verfehlenden Ziel wird.«
Benedictus d'Espinoza (1632 - 1677)

Offline anthracite

  • Jr. Member
  • **
  • Beiträge: 78
Re: Re:
« Antwort #7 am: 09. März 2017 - 15:21:02 »
Nö, eine Raw-Datei hat nicht von sich aus schon feste Farben und Kanäle. Mit der ersten Interpretation der Datei wird ein Kameraprofil zugewiesen, dass von diesem Moment an für die Art der Farben und Kanäle verantwortlich ist.
Der Sensor liefert Helligkeitswerte, und durch den Bayer-Filter werden diese den drei Grundfarben zugewiesen. Und was meinst du, was die Raw-Datei speichert? Klar, die Helligkeitswerte und das Bayer-Muster des Filters (wobei letzteres gar nicht nötig wäre, da das Muster immer gleich ist und auch in der Definition des Dateiformates stehen kann - allerdings könnten wir dann an dieser Stelle keinen Kanaltausch machen oder zumindest nicht so einfach). Damit stellen die Helligkeitswerte bereits Farben dar, und das Bild wird farbig (so wie Zeitungsbilder oder Bilder des Laserdruckers, die sind gleichermaßen aus nur drei Farben zusammengesetzt, allergings CMY statt RGB). Der Unterschied zu JPG-Dateien ist lediglich, dass JPG-Dateien Mischfarben enthalten statt lediglich der Grundfarben (wie bei einem Tintenstrahldrucker).

Das Kameraprofil hat mit der Erzeugung der Farben nichts zu tun, sondern es korrigiert lediglich die schon vorhandenen Farben, um Fehler des Kameramodells zu eliminieren (wie später noch z. B. Monitor- und Druckerprofile).

Zitat
Da allerdings auch die anderen namhaften Hersteller von Profi-Bildbearbeitung-SW das nicht anbieten, erscheint mir Deine These wenig glaubwürdig.
Der Grund dürfte sein, dass auf RAW-Ebene lediglich ein Kanaltausch einfach zu machen ist. Ein vielfältiger einzusetzender Kanalmixer wäre auf Raw-Ebene nur mit hohem Aufwand implementierbar. Der ist viel einfacher zu machen, nachdem die Raw-Datei im Speicher in ein internes Format mit Mischfarben umgewandelt wurde. IR-Bearbeitung ist ja ein Spezialfall, dass die Kanäle komplett getauscht werden, und ich nutze den Tausch auf DNG-Ebene, um eine in Lightroom nicht vorhandene Funktion zu ersetzen.

Zitat
Aber vielleicht kannst Du nachvollziehbare Belege wie etwa Dokumentationen der Hersteller zur Untermauerung Deiner Mutmaßung anführen?
Weshalb sollte ich? Du lieferst ja auch keine Belege für deine Behauptungen. Mal davon abgesehen wären das Belege, die ein Hersteller nicht herausgeben würde.

Offline zille

  • Hero Member
  • *****
  • Beiträge: 1033
Re: Re:
« Antwort #8 am: 11. März 2017 - 23:24:22 »
Es ist wunderbar, das wir uns darauf einigen können, dass die Sensoren lediglich Helligkeiten respektive Grauwerte speichern können. Nun ist es nur noch ein kleiner Schritt …

Als wir kürzlich noch mit analogen S/W-Filmen experimentierten, haben wir auch Farbfilter vor dem Objektiv eingesetzt – Rotfilter für dramatische Wolkendarstellung, Blaufilter zur Dunstverstärkung und Grünfilter, um verschiedene Grüntöne besser differenzieren zu können. Farben haben wir dadurch allerdings nicht speichern können; es waren nach wie vor nur Grauwerte. Ebenso können wir diese Farbfilter vor dem Sensor der schon oben genannten Leica M monochrom  einsetzen – auch dort entstehen keinerlei Farben, werden die Grautöne nur anders nuanciert. Wie also sollten aus den Ladungszuständen, die Helligkeiten darstellen, nun plötzlich Farben entstehen?

Falls den Pixeln direkt Farben zugewiesen würden, weshalb werden diese nicht wie in einem Druckprozess direkt für das farbige Bild genutzt? Woher kommen denn die Mischfarben? Ist es nicht so, dass die erst aus den Helligkeitsinformationen von mindestens drei Pixeln (bedingt durch die Geometrie der Sensoren tatsächlich aus vier) bei der Interpretation der Raw errechnet werden? Das wiederum bedeutet, das die Farben ursprünglich nicht vorhanden sind!

Ein interessanter Gedankengang hingegen ist, dass man die Lage und Anordnung der Filter nicht mit abspeichern müsse. Da bist Du den führenden Softwareherstellern schon wieder einige Schritte voraus. Die Idee solltest Du Dir patentieren lassen; auch die Kamerahersteller werden es Dir danken. Die könnten dann in jeder ausgelieferten Kamera den Sensor geändert haben – und damit die Hersteller von Fremdsoftware dumm dreinschauen lassen. Na ja, ist nicht ernst gemeint, denn tatsächlich ist der Aufbau der Raw-Daten nicht so geheim, existiert sogar eine gewisse Zusammenarbeit zwischen den Firmen.

Sehr richtig hast Du bemerkt, dass ich gleichermaßen keine Belege liefere. Das ist so wie mit dem Mann im Mond. Was nicht existiert, kann auch nicht belegt werden.
»Das Vertrackte am Klarmachen des eigenen Standpunktes ist, daß man dadurch zu einem nicht zu verfehlenden Ziel wird.«
Benedictus d'Espinoza (1632 - 1677)

Offline anthracite

  • Jr. Member
  • **
  • Beiträge: 78
Re: Re:
« Antwort #9 am: 14. März 2017 - 09:10:58 »
So ganz hast du scheinbar noch nicht verstanden, was in einer Datei (auch allgemein) gespeichert wird und was Interpretation ist. Gespeichert werden nur Folgen von Nullen und Einsen, alles andere, und in unserem Zusammenhang hier ob eine Folge von Binärziffern nun ein Helligkeitswert, ein Farbwert oder etwas ganz Anderes bedeutet, ist eine Frage der Interpretation. Mehr als eine Interpratation für die gleiche Datei ist möglich. Nun kann man durchaus sagen, die Binärzählen der Raw-Datei sind sind nur Helligkeitswerte, ebenso in den JPG-Dateien sind nur Helligkeitswerte, und die Farben entstehen erst im Monitor oder Drucker (oder auch erst im menschlichen Gehirn). Ebenso kann man sagen, in der Raw-Datei sind bereits Farbwerte gespeichert und in der JPG-Datei dann natürlich auch. Nicht sinnvoll ist es hingegen zu sagen, in der Raw-Datei seien nur Helligkeitswerte gespeichert und in der JPG-Datei Farbwerte, denn der Inhalt der Dateiformate ist nicht prinzipiell anders, sondern es werden salopp gesagt nur ein paar Mittelwerte gebildet.

Adobe spricht in der Spezifikation der DNG-Datei übrigens von Farben. Damit hast du deinen Beleg.

Als wir kürzlich noch mit analogen S/W-Filmen experimentierten, haben wir auch Farbfilter vor dem Objektiv eingesetzt – Rotfilter für dramatische Wolkendarstellung, Blaufilter zur Dunstverstärkung und Grünfilter, um verschiedene Grüntöne besser differenzieren zu können. Farben haben wir dadurch allerdings nicht speichern können; es waren nach wie vor nur Grauwerte. Ebenso können wir diese Farbfilter vor dem Sensor der schon oben genannten Leica M monochrom  einsetzen – auch dort entstehen keinerlei Farben, werden die Grautöne nur anders nuanciert. Wie also sollten aus den Ladungszuständen, die Helligkeiten darstellen, nun plötzlich Farben entstehen?
Doch geht, und es wurde früher (kurz nach 1900) auch so gemacht, siehe Dreifarbenfotografie.
Das könnte man auch mit der Leica Monochrom machen: Kamera auf ein Stativ, nacheinander drei Bilder mit Rot-, Grün- und Blaufilter, und anschließend können die drei Bilder zu einem Farbbild zusammengesetzt werden.
Das macht natürlich niemand, weil es heute viel praktikablere Methoden gibt. Aber das heißt nicht, dass es nicht ginge.

Offline zille

  • Hero Member
  • *****
  • Beiträge: 1033
Re: Re:
« Antwort #10 am: 15. März 2017 - 10:15:38 »
Es freut mich, dass nun auch Du die Dokumentation von Adobe zu den DNG gefunden hast. Es erscheint mir allerdings voreilig zu sein, diese als Beleg für Deine Theorie anführen zu wollen. Denn zum einen kann man dort nirgends etwas von Kanälen finden und zum anderen ist das Wort Farbe (color) erstmalig im Zusammenhang mit den hinzugefügten Profilen zu finden. Um einiges später ist dann etwas zum Farbprozess zu finden, nämlich wie die Farben interpretiert werden. Nix von wegen, dass Farben von Anfang an vorhanden wären. Wie oben schon gesagt, was nicht existiert, kann auch nicht bewiesen werden.

Ironischerweise offenbart der Hinweis zur Dreifarbenfotografie Deine Defizite. Der erste Teil stimmt selbstverständlich, nämlich das durch drei Farbfilter Aufnahmen gemacht werden. Aber dadurch entstehen keine Farben, sondern lediglich Graustufenbilder. Die werden auf der von Dir verlinkten Website in der obereren linken Ecke veranschaulicht. Dann aber unterschlägst Du den weiteren Vorgang. Das aber ist das Basiswissen, auf dem die gesamte nachfolgende und heute bekannte Farbfotografie aufbaut. Denn diese Graustufenbilder müssen erst wieder durch Farbfilter projiziert werden, damit das fertige Bild farbig wird. Erst durch dieses nachträgliche Hinzufügen von Farben entsteht das, was man vor reichlich 100 Jahren zurecht gefeiert hat. Das was Du als Beweis anzuführen versuchst, belegt tatsächlich genau das Gegenteil! Die Farbe entsteht nicht bei der Aufnahme, sondern durch die Nachbearbeitung.

Wir konnten uns schon darauf einigen, dass die elektronischen Bauelemente, aus denen die Sensoren aufgebaut sind, lediglich Helligkeit (Licht) in elektrische Energie umwandeln. Und das geschieht unabhängig davon, ob und wenn ja, welcher Filter vorgelagert ist. Folglich kann bei der Aufnahme selbst noch keine Farbe vorhanden sein, sind Kanäle obsolet.

Danach wird in Analogie zur Dreifarbenfotografie Farbe durch Ingenieur-Wissen hinzugefügt. Nicht per Dekret oder religiösen Glauben, sondern durch Berechnung aus vorhanden Daten. In diesem Fall werden die unterschiedlichen Ladungszustände genutzt, die hinter den Filtern des Bayer-Mosaik entstanden sind – gleichbedeutend mit den unterschiedlichen S/W-Fotos, die in der Kamera der Dreifarbenfotografie entstanden. Ingenieure wären keine Ingenieur, wenn sie es nicht wissenschaftlich angehen würden. Dieser zweite Schritt ist es, denn Du bisher konsequent ausblendest.

In dem nachfolgenden dritten Schritt sind wir uns wieder einig, ab jetzt kann man mit den Daten so ziemlich alles machen. Zum Beispiel per Exif-Tool Veränderungen der Interpretation, oder auch Profilveränderungen per Raw-Konverter …
»Das Vertrackte am Klarmachen des eigenen Standpunktes ist, daß man dadurch zu einem nicht zu verfehlenden Ziel wird.«
Benedictus d'Espinoza (1632 - 1677)

Offline infrabraun

  • Sr. Member
  • ****
  • Beiträge: 389
Re: Re:
« Antwort #11 am: 15. März 2017 - 11:30:49 »
Hallo Zille, Dein 1001.* Beitrag hat wie viele andere Grundsatzbeiträge volles Lob verdient.
Mit großer Ausdauer nordest Du neue, selbst hartnäckige Teilnehmer mit falschen Vorstellungen ein.
So soll es hier zugehen.
MG Bruno

* Keine Märchen  aus dem Morgenland  :)
Mit Gruß von Bruno

Offline anthracite

  • Jr. Member
  • **
  • Beiträge: 78
Re: Re:
« Antwort #12 am: 20. März 2017 - 16:51:47 »
Erstmal vorweg:
... Deine Defizite....
Ist es dir auch möglich, nicht so hochnäsig und ohne persönliche Angriffe zu diskutieren?

... und zum anderen ist das Wort Farbe (color) erstmalig im Zusammenhang mit den hinzugefügten Profilen zu finden.
Adobe verwendet das Wort "Color" durchgängig, z. B. bei "camera's native color space" im Zusammenhang mit dem CFAPattern (Color Field Array Pattern, d. h. dem Muster des Bayer-Filters), was sich beides auf die Rohdaten der Kamera bezieht.

Zitat
Wie oben schon gesagt, was nicht existiert, kann auch nicht bewiesen werden.
Der Begriff "beweisen" ist in diesem Zusammenhang unangebracht, weil es sich bei der Nutzung von Zahlen aus der Datei als Farben immer um eine Interpretation handelt.

Zitat
[...] Dreifarbenfotografie [...]Aber dadurch entstehen keine Farben, sondern lediglich Graustufenbilder. [...] Denn diese Graustufenbilder müssen erst wieder durch Farbfilter projiziert werden, damit das fertige Bild farbig wird.
Diese drei Graustufenbilder sind die drei Farbkanäle. Sie enthalten die Informationen zu jeweils einer Farbe. Gespeichert wurden die Farbinformationen als Graustufenbilder, weil das mit der damaligen Chemie nicht anders möglich war. Die Umsetzung in für uns sichtbare Farben erfolgt erst bei der Projektion, also der Wiedergabe (dies ist nicht die Nachbearbeitung; die Nachbearbeitung wäre die Retousche der Graustufenbilder).

Bei der Digitalfotografie ist das ähnlich: Die Farbinformationen werden in Zahlen in der Datei gespeichert. Die Umsetzung der Zahlen in für uns sichtbare Farben erfolgt bei der Wiedergabe im Monitor (und wieder nicht in der Nachbearbeitung; diese ändert nur die Zahlen und ersetzt sie durch andere).

Für unsere Diskussion heißt das: Zwischen RAW und JPG besteht diesbezüglich kein prinzipieller Unterschied.
1) Wenn also in JPG Farben enthalten sind, dann sind in den RAW-Dateien ebenfalls Farben enthalten.
2) Wenn in den RAW-Dateien keine Farben enthalten sind, sind auch in den JPGs keine Farben enthalten (sondern entstehen erst im Monitor).
Du kannst dir aussuchen, welche der beiden Ansichten du vertrittst. Beide sind richtig.

Offline zille

  • Hero Member
  • *****
  • Beiträge: 1033
Re: Offtopic - Spotten" in IR - Hubschrauber static und dynamic
« Antwort #13 am: 21. März 2017 - 11:18:34 »
Es ist mir nicht möglich zu erkennen, weshalb der Hinweis auf eine irrige Meinung eine Herabwürdigung sein könne. Ebenso erschließt es sich mir nicht, weshalb der Fingerzeig auf Defizite als hochnäsig und als ein persönlicher Angriff gewertet werden könne. Anstatt Dich in eine wie auch immer geartete Opferrolle zu begeben, solltest Du Deine mit viel Selbstbewusstsein vorgetragene Theorie auf Praxistauglichkeit überprüfen. Insofern erlaube mir, Dich auf einige Unzulänglichkeiten hinzuweisen:
  • Angenommen, dass »… Graustufenbilder sind … Farbkanäle … enthalten die Informationen zu jeweils einer Farbe …« richtig wäre, wo sind die Farben? Offensichtlich sind für das menschliche Auge nur Grauwerte, also Helligkeitswerte, zu erkennen.
  • Praxis: man lege die drei Graustufenbilder übereinander und projiziere diese – sind Farben zu erkennen? Wenn nein, woher kommen die Farben in dem angesprochenen Prozess der Dreifarbenfotografie?
  • Angenommen, dass »… die Projektion, also der Wiedergabe … nicht Nachbearbeitung« wäre, dann wäre die damals durchgeführte Projektion durch wiederum drei farbige Filter vollkommen bedeutungslos. Weshalb musste sie dennoch durchgeführt werden?
  • Was würde wohl passieren, wenn bei der Projektion anders farbige Filter als bei der Aufnahme verwendet würden?
  • Angenommen, dass die Informationen zu »…jeweils einer Farbe« enthalten wären, woher kommen die vielen Mischfarben?
Mit der Beantwortung der vorstehenden Fragen sind wir noch lange nicht an der Entstehung der Farben in den digitalen Daten. Wir nähern uns nurmehr der Logik, wie diese durch das Wissen von Wissenschaftlern berechnet werden werden und dass diese keinesfalls schon wie von Dir behauptet, bereits mit der Aufnahme vorhanden wären.

Deine Behauptungen haben bisher die Beweiskraft einer Wünschelrute. Sie sind nicht belegbar, lassen sich in der Praxis nicht nachvollziehen und beruhen einzig auf dem Glauben an übernatürliche Kräfte. Man muss sich deshalb nicht wundern, dass Deine Ideen nicht von den führenden Herstellern von Software zur Bildbearbeitung aufgegriffen werden.
»Das Vertrackte am Klarmachen des eigenen Standpunktes ist, daß man dadurch zu einem nicht zu verfehlenden Ziel wird.«
Benedictus d'Espinoza (1632 - 1677)

Offline anthracite

  • Jr. Member
  • **
  • Beiträge: 78
Re: Offtopic - Spotten" in IR - Hubschrauber static und dynamic
« Antwort #14 am: 24. März 2017 - 23:30:01 »
Du hast nichts verstanden.

Insbesondere
Angenommen, dass »… Graustufenbilder sind … Farbkanäle … enthalten die Informationen zu jeweils einer Farbe …« richtig wäre, wo sind die Farben? Offensichtlich sind für das menschliche Auge nur Grauwerte, also Helligkeitswerte, zu erkennen.
hast du nicht verstanden, was Information und die Speicherung von Information ist. Solange du dies nicht verstanden hast, ist es völlig sinnlos, darüber zu diskutieren, welche Farbinformation und welche Bildinformation in einer Raw- und in einer JPG-Datei gespeichert sind.
(Hinweis: Farbinformation braucht nicht farbig zu sein. Bits und Bytes sind schließlich auch nicht farbig.)

Es ist mir nicht möglich zu erkennen, weshalb der Hinweis auf eine irrige Meinung eine Herabwürdigung sein könne. Ebenso erschließt es sich mir nicht, weshalb der Fingerzeig auf Defizite als hochnäsig und als ein persönlicher Angriff gewertet werden könne.
Es steht dir nicht an, zu entscheiden, was irrig ist und was Defizite sind. Wenn du geschrieben hättest "Ich bin aber der Meinung, dass...", dann wäre alles in Ordnung gewesen. So ist dein Tonfall aber indiskutabel.

Zitat
Deine Behauptungen haben bisher die Beweiskraft einer Wünschelrute. Sie sind nicht belegbar, lassen sich in der Praxis nicht nachvollziehen und beruhen einzig auf dem Glauben an übernatürliche Kräfte. Man muss sich deshalb nicht wundern, dass Deine Ideen nicht von den führenden Herstellern von Software zur Bildbearbeitung aufgegriffen werden.
Was du da schreibst, ist völliger Dünnschiss, denn du hast dir nicht die Mühe gemacht, zu verstehen, was ich gesagt habe oder worüber ich geschrieben habe.

Du brauchst auf meinen Beitrag nicht zu antworten. Solange du nicht bereit bist, deine Diskussionspartner zu respektieren und zu versuchen, zu verstehen, was sie sagen, ist jede Fortführung der Diskussion wertlos.