Discussion:
Trichromatischer 100mpx-Sensor von Sony/PhaseOne:
(zu alt für eine Antwort)
Klaus Esser
2017-09-14 11:28:28 UTC
Permalink
https://www.phaseone.com/

klingt SEHR interessant!

Klaus
Klaus Esser
2017-09-14 11:32:28 UTC
Permalink
Post by Klaus Esser
https://www.phaseone.com/
klingt SEHR interessant!
Klaus
Mehr Infos und Broschüre hier:
https://www.phaseone.com/de-DE/Products/Camera-Systems/IQ-Digital-Backs/IQ3-100MP-Trichromatic.aspx
Klaus Esser
2017-09-14 11:46:58 UTC
Permalink
Post by Klaus Esser
https://www.phaseone.com/
klingt SEHR interessant!
Allerdings frage ich mich:
1) wie eine Firma wie PhaseOne die *relevanten* Infos so idiotisch verstecken kann
und
2) warum eine Firma wie PhaseOne sich fast jedesmal mit solch maximal banaler People- Fotogfrafie präsentieren muss . . . das ist ja peinlich . .

Klaus
Stefan Nuetzel
2017-09-14 12:11:28 UTC
Permalink
Post by Klaus Esser
2) warum eine Firma wie PhaseOne sich fast jedesmal mit solch maximal banaler People- Fotogfrafie präsentieren muss . . . das ist ja peinlich . .
Deine Alternative wäre...?
Klaus Esser
2017-09-14 13:32:17 UTC
Permalink
Post by Stefan Nuetzel
Post by Klaus Esser
2) warum eine Firma wie PhaseOne sich fast jedesmal mit solch maximal banaler People- Fotogfrafie präsentieren muss . . . das ist ja peinlich . .
Deine Alternative wäre...?
Eine Menge wirklich ausgezeicheter Fotografen arbeiten mit P1.

Klaus
Jochen Petry
2017-09-14 13:37:11 UTC
Permalink
Post by Klaus Esser
Post by Stefan Nuetzel
Post by Klaus Esser
2) warum eine Firma wie PhaseOne sich fast jedesmal mit solch maximal banaler People- Fotogfrafie präsentieren muss . . . das ist ja peinlich . .
Deine Alternative wäre...?
Eine Menge wirklich ausgezeicheter Fotografen arbeiten mit P1.
Der Wurm muss dem Fisch schmecken, nicht dem Angler. ;-)

Bis dähmnäxt
jochen
Klaus Esser
2017-09-14 15:21:02 UTC
Permalink
Post by Jochen Petry
Post by Klaus Esser
Post by Stefan Nuetzel
Post by Klaus Esser
2) warum eine Firma wie PhaseOne sich fast jedesmal mit solch maximal banaler People- Fotogfrafie präsentieren muss . . . das ist ja peinlich . .
Deine Alternative wäre...?
Eine Menge wirklich ausgezeicheter Fotografen arbeiten mit P1.
Der Wurm muss dem Fisch schmecken, nicht dem Angler. ;-)
Ich kenn keinen Fotografen den nicht ebenfalls irritiert, welche merkwürdige
Fotografie sich Hersteller für ihre Produktpräsentionen aussuchen . .

Da ist P1 ja beileibe nicht allein. Vielleicht isses ja der "Zeitgeist" - seit ein paar
Jahrzehnten . . :-))

Ich glaube eher daß es den Herstellern zu teuer ist, wirkliche Top-Leute zu beauftragen, extra ein paar Fotos exklusiv für eine Produktpräsentation zu machen.

Bereits existierende Fotos zu lizensieren geht ja schlecht . . :-))

Ist aber ja auch egal - ändert nichts am Produkt.

Klaus
Jochen Petry
2017-09-14 16:03:49 UTC
Permalink
Post by Klaus Esser
Post by Jochen Petry
Post by Klaus Esser
Post by Stefan Nuetzel
Post by Klaus Esser
2) warum eine Firma wie PhaseOne sich fast jedesmal mit solch maximal banaler People- Fotogfrafie präsentieren muss . . . das ist ja peinlich . .
Deine Alternative wäre...?
Eine Menge wirklich ausgezeicheter Fotografen arbeiten mit P1.
Der Wurm muss dem Fisch schmecken, nicht dem Angler. ;-)
Ich kenn keinen Fotografen den nicht ebenfalls irritiert, welche merkwürdige
Fotografie sich Hersteller für ihre Produktpräsentionen aussuchen . .
Da ist P1 ja beileibe nicht allein. Vielleicht isses ja der "Zeitgeist" - seit ein paar
Jahrzehnten . . :-))
Ich bin mir auch sicher, das dies eher ein "Zeitgeist" Ding ist.
Ich bin aber auchsicher, das auch bei P1 die Marketingabteilung ihre
angestrebte Kundschaft sehr genau im Visier hat.
Das eine solche Werbung dann nicht bei allen ins Schwarze trifft, ist
dann auch nichts ungewöhnliches.
Post by Klaus Esser
Ich glaube eher daß es den Herstellern zu teuer ist, wirkliche Top-Leute zu beauftragen, extra ein paar Fotos exklusiv für eine Produktpräsentation zu machen.
An Geiz glaub ich da weniger, was aber nicht viel heißen muss.
Post by Klaus Esser
Bereits existierende Fotos zu lizensieren geht ja schlecht . . :-))
Ist aber ja auch egal - ändert nichts am Produkt.
Eben.

Bis dähmnäxt
jochen
Klaus Esser
2017-09-14 18:54:28 UTC
Permalink
Post by Jochen Petry
Post by Klaus Esser
Post by Jochen Petry
Post by Klaus Esser
Post by Stefan Nuetzel
Post by Klaus Esser
2) warum eine Firma wie PhaseOne sich fast jedesmal mit solch maximal banaler People- Fotogfrafie präsentieren muss . . . das ist ja peinlich . .
Deine Alternative wäre...?
Eine Menge wirklich ausgezeicheter Fotografen arbeiten mit P1.
Der Wurm muss dem Fisch schmecken, nicht dem Angler. ;-)
Ich kenn keinen Fotografen den nicht ebenfalls irritiert, welche merkwürdige
Fotografie sich Hersteller für ihre Produktpräsentionen aussuchen . .
Da ist P1 ja beileibe nicht allein. Vielleicht isses ja der "Zeitgeist" - seit ein paar
Jahrzehnten . . :-))
Ich bin mir auch sicher, das dies eher ein "Zeitgeist" Ding ist.
Ich bin aber auchsicher, das auch bei P1 die Marketingabteilung ihre
angestrebte Kundschaft sehr genau im Visier hat.
Das eine solche Werbung dann nicht bei allen ins Schwarze trifft, ist
dann auch nichts ungewöhnliches.
Post by Klaus Esser
Ich glaube eher daß es den Herstellern zu teuer ist, wirkliche Top-Leute zu beauftragen, extra ein paar Fotos exklusiv für eine Produktpräsentation zu machen.
An Geiz glaub ich da weniger, was aber nicht viel heißen muss.
Wie ich manche Kollegen kenne und deren Agenten(innen)/Repräsentant(inn)en ist das eine nicht ganz einfache Sache.

Weltweite Exklusiv-Rechte für evtl. mehrere Jahre . . . sowas kann SEHR teuer werden - mit "Kamera als Honorar" ist´s da bei Weitem nicht getan (ausserdem ist das je nach Herkunftsland steuerlich sehr kompliziert).

Klaus
Jens Look
2017-09-14 15:59:40 UTC
Permalink
Post by Jochen Petry
Der Wurm muss dem Fisch schmecken, nicht dem Angler. ;-)
Ist in dem Fall aber eher das gleiche.
Die Bilder sind zum beurteilen aber sehr gut geeignet und das ist eh
nichts das man wegen Beispielbildern her kauft. Das testet man selber.
Ich habe eine Produktion im Auge bei der ich die mal testen werde.

Mein Händler hier hat auch noch mehr Beispiele:
https://digitaltransitions.com/see-world-new-set-eyes-innovation-behind-trichromatic/
https://digitaltransitions.com/phase-one-iq3-100mp-trichromatic/

Bei dem XF Gehäuse gab es auch gerade Neuigkeiten und die Vibrations
Analyse dürfte hier für manche eventuel interessant sein.
https://digitaltransitions.com/phase-one-xf-feature-update-4/
Da kann man der Kamera sagen das sie warten soll bis nichts mehr
wackelt.

Vibration Analysis
This visual feedback feature shows the user a display if any vibrations
incurred during the capture process.

Infinite Vibration Delay
An expansion of the XF Camera System's built-in ability to wait for
optimal conditions before releasing the shutter, Infinite Vibration
Delay now allows the camera to continue waiting indefinitely in a state
of hibernation for calm, stable, and vibration-free conditions.

Jens
Klaus Esser
2017-09-14 16:52:48 UTC
Permalink
Post by Jens Look
Bei dem XF Gehäuse gab es auch gerade Neuigkeiten und die Vibrations
Analyse dürfte hier für manche eventuel interessant sein.
https://digitaltransitions.com/phase-one-xf-feature-update-4/
Da kann man der Kamera sagen das sie warten soll bis nichts mehr
wackelt.
Toll - ist in meinem Panoramakopf seit drei Jahren eingebaut.
Und hat sich oft als sehr hilfreich erwiesen.

Solange da irgenwas irgendwo vibriert löst der Controller die Kamera nicht aus.Die Sensitivität ist einstellbar.

Klaus
Oliver Jennrich
2017-09-14 19:52:28 UTC
Permalink
Post by Klaus Esser
Post by Jens Look
Bei dem XF Gehäuse gab es auch gerade Neuigkeiten und die Vibrations
Analyse dürfte hier für manche eventuel interessant sein.
https://digitaltransitions.com/phase-one-xf-feature-update-4/
Da kann man der Kamera sagen das sie warten soll bis nichts mehr
wackelt.
Toll - ist in meinem Panoramakopf seit drei Jahren eingebaut.
Und hat sich oft als sehr hilfreich erwiesen.
Solange da irgenwas irgendwo vibriert löst der Controller die Kamera
nicht aus.Die Sensitivität ist einstellbar.
Das hoffe ich doch sehr, sonst muss man ggfls. darauf warten, dass die
Wellen am Nordseestrand mal Ruhe geben :)
--
S/W Fotos: http://500px.com/oliver_jennrich
Google+ : https://plus.google.com/+OliverJennrich/photos
Flickr : http://www.flickr.com/photos/oliver_jennrich
Klaus Esser
2017-09-14 20:44:24 UTC
Permalink
Post by Oliver Jennrich
Post by Klaus Esser
Post by Jens Look
Bei dem XF Gehäuse gab es auch gerade Neuigkeiten und die Vibrations
Analyse dürfte hier für manche eventuel interessant sein.
https://digitaltransitions.com/phase-one-xf-feature-update-4/
Da kann man der Kamera sagen das sie warten soll bis nichts mehr
wackelt.
Toll - ist in meinem Panoramakopf seit drei Jahren eingebaut.
Und hat sich oft als sehr hilfreich erwiesen.
Solange da irgenwas irgendwo vibriert löst der Controller die Kamera
nicht aus.Die Sensitivität ist einstellbar.
Das hoffe ich doch sehr, sonst muss man ggfls. darauf warten, dass die
Wellen am Nordseestrand mal Ruhe geben :)
:-)) Man merkt plötzlich, WIE unruhig die Welt um einen herum ist . . :-))

Wenn man mit einem 300er rund 250 Bilder für ein planes Bild macht und zusammensetzt sollte da besser kein auch nur leicht Unscharfes zwischendurch drin sein :-) - bei 100% sieht man das sofort! Daher schiesse ich alles midestens doppelt, um verwackelte Bilder mit redundanten scharfen auszutauschen.

Das Blöde ist, daß man bei 36MPx Bildern erst bei 100% sieht, ob sie wirklich unverwackelt sind . . . ;-)

Ich hab auch sicherheitshalber schonmal alles 5x belichtet - wenn das Licht konstant ist kein Problem: der Kopf ist recht schnell, fängt aber auf den Pixel genau wieder von Vorne an und alle 5 Durchgänge sind deckungsgleich (der Stitcher sucht auf Anweisung bei der Optimierung partiell nochmal Kontrollpunkte - trotz der Positionierungen aufgrund der XML-Datei)

Aber entscheiden, welche der Bilder durch welche anderen ersetzt werden müssen kann nur ich.

Klaus
Rainer Knaepper
2017-09-16 13:30:00 UTC
Permalink
Post by Klaus Esser
Post by Jens Look
Bei dem XF Gehäuse gab es auch gerade Neuigkeiten und die
Vibrations Analyse dürfte hier für manche eventuel interessant
sein. https://digitaltransitions.com/phase-one-xf-feature-update-4
/ Da kann man der Kamera sagen das sie warten soll bis nichts mehr
wackelt.
Toll - ist in meinem Panoramakopf seit drei Jahren eingebaut.
Bei der Kamera funktioniert das halt mit /jedem/ Stativ und Kopf. Ich
finde, das ist ein sehr nützliches Feature.

Ich weiß ja nicht, ob du Nahaufnahmen oder Focus stacks mit deinem
Panoramakopf machst.
Post by Klaus Esser
Und hat sich oft als sehr hilfreich erwiesen.
Ach!



Rainer
--
Dazu paßt auch der Trend weg von der Kommandozeile: Dem Computer
*Kommandos* erteilen - nein, das geht nun wirklich nicht.
Nein, *wir* haben gefälligst *seine* Fragen zu beantworten und
*seine* Meldungen zu bestätigen... (Christopher Eltschka in ger.ct)
Klaus Esser
2017-09-16 19:41:34 UTC
Permalink
Post by Rainer Knaepper
Ich weiß ja nicht, ob du Nahaufnahmen oder Focus stacks mit deinem
Panoramakopf machst.
"Nahaufnahmen" z. B. mit einem 300mm Objektiv mit X Aufnahmen aus ca. 3m Abstand - ja, das ist relativ nah ;-)

Focus stacks reichlich - abgesehen von CloseUps wie oben beschrieben z. B. in Galerien oder Museen mit Skulpturen, um ausreichend Schärfentiefe mit einem 50mm Objektiv und 74 Aufnahmen für eine Sphere zu kriegen, die durchgängige Schärfe zeigt - ohne total abblenden zu müssen.

Man kann so einen Kopf aufgrund seiner Steuerbarkeit recht universell verwenden - nicht nur für Panoramen.

Ich fahre Kamera am Kopf oft per Motorstativ Stativ oder mit einem Kran (Panther) auf mehrere Meter Höhe, richte den Kopf über ein 15m-Kabel aus und kontrolliere alles zusammen über die LiveView per Tablet per WLan von unten aus.

Das geht mit der Hasselblad und C1 und mit den Nikons per qDSLRDashboard ganz prima bei Architektur in großen Innenräumen oder auch draussen, um weniger extrem entzerren zu müssen. Gut auch bei Peopleschüssen.

Auch dabei ist der Senor sehr hilfreich - naheliegenderweise.

Klaus
Klaus Esser
2017-09-16 20:39:38 UTC
Permalink
Post by Klaus Esser
Post by Rainer Knaepper
Ich weiß ja nicht, ob du Nahaufnahmen oder Focus stacks mit deinem
Panoramakopf machst.
"Nahaufnahmen" z. B. mit einem 300mm Objektiv mit X Aufnahmen aus ca. 3m Abstand - ja, das ist relativ nah ;-)
www.klausesser.de/IMG_2930.jpg
http://klausesser.de/Awe_interaktiv/
Loading Image...

Klaus




Klaus
Helmut Faugel
2017-09-14 19:47:12 UTC
Permalink
Post by Jens Look
Post by Jochen Petry
Der Wurm muss dem Fisch schmecken, nicht dem Angler. ;-)
Ist in dem Fall aber eher das gleiche.
Die Bilder sind zum beurteilen aber sehr gut geeignet und das ist eh
nichts das man wegen Beispielbildern her kauft. Das testet man selber.
Ich habe eine Produktion im Auge bei der ich die mal testen werde.
https://digitaltransitions.com/see-world-new-set-eyes-innovation-behind-trichromatic/
Naja, ein paar Schlußfolgerungen sind da meiner Meinung nach an den
Haaren herbeigezogen:

Natürlich resultieren schmalere RGB-Filter in einer geringeren
Empfindlichkeit. Wie diese Filter zu weniger Farbrauschen bei
hoher Empfindlichkeit führen soll ist deren Geheimnis ...

Die Frage ist wie gut die Farbwiedergabe tatsächlich ist. Irgendwie
vermisse ich in den Bildern Gelbtöne. Gelb, das kann ein Gemisch
aus rot und grün sein, oder spektral sauber, zwischen rot und grün
liegen. Gibt es da blinde Flecken des neuen Sensors? Die Bilder die
ich bisher gesehen haben saubere gesättigte Farben, aber kann der
Sensor über das gesamte Spektrum saubere Farben aufnehmen? Oder
fehlt da etwas, wie es zB. bei der Beleuchtung mit billigen weißen
LEDs vorkommt? Es ist ja nicht so, dass die anderen Bildsensor-
hersteller doof wären ...
--
Helmut Faugel
Michael Quack - Visual Pursuit
2017-09-14 19:53:09 UTC
Permalink
Post by Helmut Faugel
Gibt es da blinde Flecken des neuen Sensors? Die Bilder die
ich bisher gesehen haben saubere gesättigte Farben, aber kann der
Sensor über das gesamte Spektrum saubere Farben aufnehmen? Oder
fehlt da etwas, wie es zB. bei der Beleuchtung mit billigen weißen
LEDs vorkommt?
Spannenderweise war das mein erster Gedanke als ich das
Konzept gesehen habe.

Aber die Blitzhersteller wird es freuen. Hilfsmittelformat und
ISO 35 - da werden wieder dickere Blitzgeneratoren verkauft.
--
Michael Quack
Visual Pursuit
Fotografie, Mietstudio, Hensel Rentstation
http://www.visualpursuit.de
Klaus Esser
2017-09-14 20:17:24 UTC
Permalink
Post by Helmut Faugel
Die Frage ist wie gut die Farbwiedergabe tatsächlich ist. Irgendwie
vermisse ich in den Bildern Gelbtöne. Gelb, das kann ein Gemisch
aus rot und grün sein, oder spektral sauber, zwischen rot und grün
liegen. Gibt es da blinde Flecken des neuen Sensors? Die Bilder die
ich bisher gesehen haben saubere gesättigte Farben, aber kann der
Sensor über das gesamte Spektrum saubere Farben aufnehmen? Oder
fehlt da etwas, wie es zB. bei der Beleuchtung mit billigen weißen
LEDs vorkommt? Es ist ja nicht so, dass die anderen Bildsensor-
hersteller doof wären ...
Ich würde mal ganz entspannt davon ausgehen, daß die Sony- und P1-Entwickler möglicherweise nicht wirklich dümmer sind als diese Gruppe von sich selbst glaubt zu sein . . . :-) :-)

Klaus
Helmut Faugel
2017-09-14 20:53:11 UTC
Permalink
Post by Klaus Esser
Post by Helmut Faugel
Die Frage ist wie gut die Farbwiedergabe tatsächlich ist.
Irgendwie vermisse ich in den Bildern Gelbtöne. Gelb, das kann ein
Gemisch aus rot und grün sein, oder spektral sauber, zwischen rot
und grün liegen. Gibt es da blinde Flecken des neuen Sensors? Die
Bilder die ich bisher gesehen haben saubere gesättigte Farben, aber
kann der Sensor über das gesamte Spektrum saubere Farben aufnehmen?
Oder fehlt da etwas, wie es zB. bei der Beleuchtung mit billigen
weißen LEDs vorkommt? Es ist ja nicht so, dass die anderen
Bildsensor- hersteller doof wären ...
Ich würde mal ganz entspannt davon ausgehen, daß die Sony- und
P1-Entwickler möglicherweise nicht wirklich dümmer sind als diese
Gruppe von sich selbst glaubt zu sein . . . :-) :-)
Und ich würde davon ausgehen, dass dieser Sensor nicht ein Allheilmittel
ist.

Gerade bei dem MF-Rückteilen setzt eine Diversifikation ein: Rückteile
für technisch/wissenschaftliche Aufgaben, reine SW-Rückteile, Allrounder
und welche mit besonderes kräftiger Farbwiedergabe. Schlicht so wie
früher beim Film, von Infrarot über Technical Pan zu Astia und Velvia.

Das ist auch eine Möglichkeit mit relativ wenig technischem Aufwand
unterschiedliche Produkte anzubieten und abzusetzen.
--
Helmut Faugel
Klaus Esser
2017-09-14 21:07:23 UTC
Permalink
Post by Helmut Faugel
Post by Klaus Esser
Post by Helmut Faugel
Die Frage ist wie gut die Farbwiedergabe tatsächlich ist.
Irgendwie vermisse ich in den Bildern Gelbtöne. Gelb, das kann ein
Gemisch aus rot und grün sein, oder spektral sauber, zwischen rot
und grün liegen. Gibt es da blinde Flecken des neuen Sensors? Die
Bilder die ich bisher gesehen haben saubere gesättigte Farben, aber
kann der Sensor über das gesamte Spektrum saubere Farben aufnehmen?
Oder fehlt da etwas, wie es zB. bei der Beleuchtung mit billigen
weißen LEDs vorkommt? Es ist ja nicht so, dass die anderen
Bildsensor- hersteller doof wären ...
Ich würde mal ganz entspannt davon ausgehen, daß die Sony- und
P1-Entwickler möglicherweise nicht wirklich dümmer sind als diese
Gruppe von sich selbst glaubt zu sein . . . :-) :-)
Und ich würde davon ausgehen, dass dieser Sensor nicht ein Allheilmittel
ist.
Das hat niemand behauptet und Allheilmittel gibt es nicht.
Also wie kommst Du zu dieser Aussage?
Post by Helmut Faugel
Gerade bei dem MF-Rückteilen setzt eine Diversifikation ein: Rückteile
für technisch/wissenschaftliche Aufgaben, reine SW-Rückteile, Allrounder
und welche mit besonderes kräftiger Farbwiedergabe. Schlicht so wie
früher beim Film, von Infrarot über Technical Pan zu Astia und Velvia.
Das ist auch eine Möglichkeit mit relativ wenig technischem Aufwand
unterschiedliche Produkte anzubieten und abzusetzen.
Und???

Kamera und Rückteil müssen hier aufeinander abgestimmt sein. Beide zusammen kosten mit einem Objektiv rund 50000.-$.

Ich vermute, daß sie dafür schon ein breites Spektrum an Fähigkeiten bieten müssen, um gekauft zu werden . . .

Möglicherweise solltest Du erstmal weitere und tiefergehende Informationen abwarten, statt neunmalkluge Sprüche wie oben abzulassen ;-) :-)

Klaus
Helmut Faugel
2017-09-14 21:22:02 UTC
Permalink
Am 14.09.2017 um 23:07 schrieb Klaus Esser;> Möglicherweise solltest Du
erstmal weitere und tiefergehende
Post by Klaus Esser
Informationen abwarten, statt neunmalkluge Sprüche wie oben
abzulassen ;-) :-)
Erstes Essersches Gesetz: Tauchen in einem Posting von Klaus
mehr als ein Smilie hintereinander kann man ihn nicht mehr
ernst nehmen.
--
Helmut Faugel
Klaus Esser
2017-09-14 21:28:35 UTC
Permalink
Post by Helmut Faugel
Am 14.09.2017 um 23:07 schrieb Klaus Esser;> Möglicherweise solltest Du
erstmal weitere und tiefergehende
Post by Klaus Esser
Informationen abwarten, statt neunmalkluge Sprüche wie oben
abzulassen ;-) :-)
Erstes Essersches Gesetz: Tauchen in einem Posting von Klaus
mehr als ein Smilie hintereinander kann man ihn nicht mehr
ernst nehmen.
Du Hanswurst kannst wirklich nicht EINMAL nüchtern und sachlich bleiben, gell.

Erwartest Du da noch, daß man DICH ernst nimmt?

Klaus
Jürgen Gerkens
2017-09-14 21:34:57 UTC
Permalink
Post by Helmut Faugel
Am 14.09.2017 um 23:07 schrieb Klaus Esser;> Möglicherweise solltest Du
erstmal weitere und tiefergehende
Post by Klaus Esser
Informationen abwarten, statt neunmalkluge Sprüche wie oben
abzulassen ;-) :-)
Erstes Essersches Gesetz: Tauchen in einem Posting von Klaus
mehr als ein Smilie hintereinander kann man ihn nicht mehr
ernst nehmen.
Zweites Essersches Gesetz: Tauchen in einem Thread drei Beiträge von
Klaus in Folge auf, ist diese Situation ebenfalls gegeben.

Drittes Essersches Gesetz: Spätestens bei der zweiten Antwort an sich
selbst verpeilt Klaus die Zitatebenen selbst, dass er nicht einmal mehr
merkt, wenn er sich selbst zitiert.

Viertes Essersches Gesetz: Die im ersten, zweiten und dritten Esserschen
Gesetz beschriebenen Situationen treten früher oder später in jedem
Thread mit Esserscher Beteiligung ein.
--
SCHÖNE GRÜẞE
JÜRGEN
Klaus Esser
2017-09-15 11:49:51 UTC
Permalink
Post by Jürgen Gerkens
Post by Helmut Faugel
Am 14.09.2017 um 23:07 schrieb Klaus Esser;> Möglicherweise solltest Du
erstmal weitere und tiefergehende
Post by Klaus Esser
Informationen abwarten, statt neunmalkluge Sprüche wie oben
abzulassen ;-) :-)
Erstes Essersches Gesetz: Tauchen in einem Posting von Klaus
mehr als ein Smilie hintereinander kann man ihn nicht mehr
ernst nehmen.
Zweites Essersches Gesetz: Tauchen in einem Thread drei Beiträge von
Klaus in Folge auf, ist diese Situation ebenfalls gegeben.
Drittes Essersches Gesetz: Spätestens bei der zweiten Antwort an sich
selbst verpeilt Klaus die Zitatebenen selbst, dass er nicht einmal mehr
merkt, wenn er sich selbst zitiert.
Viertes Essersches Gesetz: Die im ersten, zweiten und dritten Esserschen
Gesetz beschriebenen Situationen treten früher oder später in jedem
Thread mit Esserscher Beteiligung ein.
Zusammenfassung aller Gerkens-schen Gesetze: Nix verstanden, aber UNBEDINGT
mal wieder möglichst großspurig verkünden, auch noch da zu sein.

Klaus
Jürgen Gerkens
2017-09-15 11:59:53 UTC
Permalink
Post by Klaus Esser
Zusammenfassung aller Gerkens-schen Gesetze: Nix verstanden, aber UNBEDINGT
mal wieder möglichst großspurig verkünden, auch noch da zu sein.
Doch doch, vor allem habe ich schon lange verstanden, dass das gesamte
theoretische Gefasel über kommende Sensoren völlig für die Tonne ist.
Die Praxis, die gerade Du so gern beschwörst, zeigt immer wieder, dass
neue Sensorgenerationen die zu vor genau dazu getroffenen Äußerungen
immer wieder zur Farce machen, die Ergebnisse am Ende doch für sich
sprechen und dazu auch die übrige Nutzbarbeit der Kamera von der
Handhabung über Tempo und Zuverlässigkeit und noch weitere Faktoren eine
Rolle spielen.

Auch die D800 war so ein Beispiel und auch da war bewies später dein
eigener Kauf genau das Gegenteil von dem, wozu Du Schwätzer vorher
großspurig und gebetsmühlenartig geraten hattest. Da hast Du
nachweislich das, was Du vorher geschwafelt hast, mit deiner
Kaufentscheidung selbst in den Boden getreten.

Der Jens macht das schon genau richtig, schaut sich das Teil bei seinem
Händler selbst praktisch an, bildet sich dann sein Urteil und labert
hier keine Grütze in Diskussionen mit Esser, Esser, Esser und Klaus Ingrid.
--
SCHÖNE GRÜẞE
JÜRGEN
Klaus Esser
2017-09-15 12:41:45 UTC
Permalink
Post by Jürgen Gerkens
Der Jens macht das schon genau richtig, schaut sich das Teil bei seinem
Händler selbst praktisch an, bildet sich dann sein Urteil
Das ist genau das, was ich - selbstverständlich - ebenfalls tue. Alle Fotografen machen das so (wie denn auch sonst).
Aber woher solltest Du das wisssen.

Trotzdem wird sich auch "Der Jens" :-)) im Vorfeld seine theoretischen Gedanken machen und diese vielleicht auch mitteilen . .

Und die Überlegung, wie viele Pixel auf einen KB-Sensor passen und was das für die Sauberkeit der Bildergebnisse bedeutet ist für Fotografen das normalste Ding der Welt, BEVOR ein Device auf dem Markt ist.

Ich sehe jedenfalls meinen Aussage von damals in der Praxis absolut bestätigt, daß A) D800und 810 mit 36MPx hart an der Grenze werkeln, die 810 das leicht besser hinkriegt als die 800 und die 5DS diese Grenze bereits sichtbar überschreitet.

Aber das sind Regionen, in die DU niemals kommen wirst.

Jens benutzt ja wie ich nicht zufällig ebenfalls MF, wenn´s drauf ankommt. Meinst Du, Fotografen schmeissen aus Jux Kohle zum Fenster raus?? Nee - sei Dir da mal ganz sicher.
Post by Jürgen Gerkens
und labert
hier keine Grütze in Diskussionen mit Esser, Esser, Esser und Klaus Ingrid.
Das must AUSGERECHNET DU sagen :-)))) . . . der Erfinder des tiefen Tellers und größte Labertasche unter der Sonne . .

Dein Kardinalproblem ist, daß Du max. 25% verstehst, wenn es ans Eingemachte geht.
Das aber mit maximalem Brimborium.

Klaus (10 Minuten Lebenszeit vergeudet, jemandem wie Dir überhaupt zu antworten)
Jens Look
2017-09-15 13:35:34 UTC
Permalink
Post by Klaus Esser
Trotzdem wird sich auch "Der Jens" :-)) im Vorfeld seine theoretischen
Gedanken machen und diese vielleicht auch mitteilen . .
Habe ich ja bereits gemacht. Ich habe einge Beispielbilder als RAW
angesehen. Das ganze für interessant gefunden und werde sie dann mal
selber testen. Da jetzt noch versuchen jeder Information im Internet
hinterher zu rennen würde ich als Zeitverschwendung sehen und Zeit habe
ich nicht viel.

Jens
Klaus Esser
2017-09-15 13:59:02 UTC
Permalink
Post by Jens Look
Da jetzt noch versuchen jeder Information im Internet
hinterher zu rennen würde ich als Zeitverschwendung sehen und Zeit habe
ich nicht viel.
Nun ja - ist halt ein Unterschied, ob man "hinterher rennt" oder ob man sie als email zugeschickt bekommt und sich das ansieht. Müsstest Du doch auch bekommen haben . .

Im Web nach Infos SUCHEN ist im gegenwärtigen Stadium höchstwahrscheinlich eh ziemlich unnütz :-)

Ausserdem bin ich in der glücklichen Situation den Dingen nachgehen zu können, die möglicherweise für meine Projekte relevant sind. DIE Zeit MUSS möglich sein.

Gruß, Klaus
Jens Look
2017-09-15 14:11:29 UTC
Permalink
Post by Klaus Esser
Nun ja - ist halt ein Unterschied, ob man "hinterher rennt" oder ob man
sie als email zugeschickt bekommt und sich das ansieht. Müsstest Du doch
auch bekommen haben . .
Ich wurde von meinem Händler eingeladen sie zu testen. Alle weiteren
Mails mit generellen News habe ich abbestellt. Daher habe ich eben auch
von meinem Händer zusätzliche RAWs bekommen. Die ansehen macht Sinn um
sich eine Meinung zu bilden. Zumindest wenn man auch das "normale" 100MP
Back kennt.
Post by Klaus Esser
Ausserdem bin ich in der glücklichen Situation den Dingen nachgehen zu
können, die möglicherweise für meine Projekte relevant sind. DIE Zeit
MUSS möglich sein.
Du hast alleine hier bisher 24 Postings geschrieben. In der Zeit habe
ich die schon selber gestestet. Ich bin in der glücklichen Situation
beruflich und privat sehr ausgelastet zu sein mit Dingen die die mir
viel Spass machen. Theorien über neues Equpment verfassen gehört nicht
dazu.

Jens
Dieter Lefeling
2017-09-15 19:09:26 UTC
Permalink
Post by Klaus Esser
Und die Überlegung, wie viele Pixel auf einen KB-Sensor passen und was
das für die Sauberkeit der Bildergebnisse bedeutet ist für Fotografen
das normalste Ding der Welt, BEVOR ein Device auf dem Markt ist.
Ich sehe jedenfalls meinen Aussage von damals in der Praxis absolut
bestätigt, daß A) D800und 810 mit 36MPx hart an der Grenze werkeln, die
810 das leicht besser hinkriegt als die 800 und die 5DS diese Grenze
bereits sichtbar überschreitet.
Wenn da schon eine Grenze überschritten wird, waren die Objektive nicht
gut genug (oder nicht im Leistungsoptimum eingesetzt). ;-)

Der Unterschied in der Pixelzahl, auf die Du im ersten Absatz abhebst,
ist hier nicht sonderlich relevant. Die Pixel sind mal 4,9 µm groß und
mal 4,2 µm. Das sind keine Welten. Soweit es da relevante Unterschiede
gibt, sind diese daher eher auf andere Faktoren zurückzuführen als die
reine Pixelzahl oder - bei gleicher Sensorgröße äquivalent - die
Pixelgröße.

Aber wo will man hier die Grenze setzen? Irgendwo ist sicher die
Leistungsgrenze selbst sehr guter Objektive erreicht. Aber wo? Bei 4 µm?
Bei 3 µm? Rechne Dir die zugehörige Pixelzahl selbst aus: 24 x 36 / 4^2
ergibt 54 Megapixel. Für Kleinbild.

Genau hier liegt ein wesentlicher Vorteil von Mittelformat. Schon mit
einem 33x44-Sensor kann man fast 70% mehr Pixel bei gleicher Pixelgröße
unterbringen als bei Kleinbild. Oder die Pixel haben 70% mehr Fläche.
*Das* macht bildrelevant einiges aus.

Dieter
Klaus Esser
2017-09-15 20:14:45 UTC
Permalink
Post by Dieter Lefeling
Post by Klaus Esser
Und die Überlegung, wie viele Pixel auf einen KB-Sensor passen und was
das für die Sauberkeit der Bildergebnisse bedeutet ist für Fotografen
das normalste Ding der Welt, BEVOR ein Device auf dem Markt ist.
Ich sehe jedenfalls meinen Aussage von damals in der Praxis absolut
bestätigt, daß A) D800und 810 mit 36MPx hart an der Grenze werkeln, die
810 das leicht besser hinkriegt als die 800 und die 5DS diese Grenze
bereits sichtbar überschreitet.
Wenn da schon eine Grenze überschritten wird, waren die Objektive nicht
gut genug (oder nicht im Leistungsoptimum eingesetzt). ;-)
Die Grenze liegt da, wo die Datei sichtlich keinen Headroom mehr hat.
Es gibt RAW Dateien vom selben Motiv zum Runterladen - einmal mit
5DS und einmal mir D810. Ich versuche mal, den Link noch zu finden -
weiß ,nicht, ob ich sie von meinem Server aus abrufbar machen sollte . .
Der Unterschied ist nicht die Auflösung - die ist natürlich unbestritten - der Unterschied liegt in der Sauberkeit von Details.

Der geiche Unterschied besteht im Vergleich von KB und MF. Natürlich ist auch hier die unterschiedliche Auflösung logisch.

Wichtiger aber ist der Unterschied, der bei der "Sauberkeit", Klarheit, der "Selbstverständlichkeit" von Details besteht. Das Keyword ist "headroom".
Der ist bei MF *beträchtlich* größer.
Post by Dieter Lefeling
Der Unterschied in der Pixelzahl, auf die Du im ersten Absatz abhebst,
ist hier nicht sonderlich relevant. Die Pixel sind mal 4,9 µm groß und
mal 4,2 µm. Das sind keine Welten.
Wie X-Male gesagt: es ist die Pixelgröße **in Verbindung** mit der Sensorfläche.

Ziehen wir einen Vergleich mit Analog: Kleinbild vs. 6x9: welches Format bietet mehr Reserven (Headroom) zum Drucken auf z. B. A2?

Von welchem Format wird also ein A2 - Ausdruck sauberer aussehen?

Genau.

So einfach ist das.

Genauso, wie man die Größe des Korns, aka Empfindlichkeit der Emulsion,
in Relation zur FLÄCHE des Formats sezt und nicht zur Größe des Korns.

Es sind einfach mehr Körner auf der größeren Fläche. Nicht wirklich überraschend.

Bei Digital kommt noch hinzu, daß je nach Verringerung der Größe von "Pixeln" mehr oder weniger Anstrengungen nötig werden, um die geringere Lichtaufnahme kleinerer "Pixel" zu kompensieren.

Das geht heute schon sehr gut - aber . . ab einem bestimmten Punkt SIEHT man diese Angestrengtheit.

Wenn man klar sehen kann und nicht schon visuell durch mittelmäßige Qualität sediert ist.

Das hat mit den benutzten Objektiven erst in zweiter Linie zu tun .

Mit besonders hochklassigen Objektiven lassen sich dann noch ein paar Details mehr rausholen.

Das bringt aber herzlich wenig, wenn diese Details dann sofort wieder durch einen überforderten Sensor "gestört" werden.

Klaus
Rainer Knaepper
2017-09-16 14:37:00 UTC
Permalink
Am Freitag, 15. September 2017 21:09:33 UTC+2 schrieb Dieter
Post by Dieter Lefeling
Post by Klaus Esser
Und die Überlegung, wie viele Pixel auf einen KB-Sensor passen
und was das für die Sauberkeit der Bildergebnisse bedeutet ist
für Fotografen das normalste Ding der Welt, BEVOR ein Device auf
dem Markt ist.
Ich sehe jedenfalls meinen Aussage von damals in der Praxis
absolut bestätigt, daß A) D800und 810 mit 36MPx hart an der
Grenze werkeln, die 810 das leicht besser hinkriegt als die 800
und die 5DS diese Grenze bereits sichtbar überschreitet.
Wenn da schon eine Grenze überschritten wird, waren die Objektive
nicht gut genug (oder nicht im Leistungsoptimum eingesetzt). ;-)
Die Grenze liegt da, wo die Datei sichtlich keinen Headroom mehr
hat. Es gibt RAW Dateien vom selben Motiv zum Runterladen - einmal
mit 5DS und einmal mir D810. Ich versuche mal, den Link noch zu
finden - weiß ,nicht, ob ich sie von meinem Server aus abrufbar
machen sollte . . Der Unterschied ist nicht die Auflösung - die ist
natürlich unbestritten - der Unterschied liegt in der Sauberkeit
von Details.
Der geiche Unterschied besteht im Vergleich von KB und MF.
Natürlich ist auch hier die unterschiedliche Auflösung logisch.
Wichtiger aber ist der Unterschied, der bei der "Sauberkeit",
Klarheit, der "Selbstverständlichkeit" von Details besteht. Das
Keyword ist "headroom". Der ist bei MF *beträchtlich* größer.
Post by Dieter Lefeling
Der Unterschied in der Pixelzahl, auf die Du im ersten Absatz
abhebst, ist hier nicht sonderlich relevant. Die Pixel sind mal
4,9 µm groß und mal 4,2 µm. Das sind keine Welten.
Wie X-Male gesagt: es ist die Pixelgröße **in Verbindung** mit der Sensorfläche.
Ziehen wir einen Vergleich mit Analog: Kleinbild vs. 6x9: welches
Format bietet mehr Reserven (Headroom) zum Drucken auf z. B. A2?
Von welchem Format wird also ein A2 - Ausdruck sauberer aussehen?
Genau.
So einfach ist das.
Für deine fotografische Praxis sind deine Faustregeln völlig
ausreichend.

Allerdings solltest du dir verkneifen, daraus irgendwelche
Rückschlüsse auf tatsächliche technische Zusammenhänge zu ziehen und
die rechthaberisch als Erklärung zu verkaufen.

Die "liebsten" Kunden sind mir die mit solidem Halbwissen.

Mit denen, die Ahnung haben, kann man fruchtbar diskutieren und man
lernt gerne auch etwas dabei.

Denen, die sich auf den Fachmann verlassen, kann man effizient helfen.

Die anderen... weia.

Rainer
--
Man sollte überhaupt keine Tests mehr lesen...
(Stefan Krah in de.comp.hardware.kuehlung+laermdaemmung)
Klaus Esser
2017-09-16 19:53:58 UTC
Permalink
Post by Rainer Knaepper
Für deine fotografische Praxis sind deine Faustregeln völlig
ausreichend.
"Faustregeln" sind nichts für mich. Ich bevorzuge als korrekt erwiesene Erfahrungwerte.
Post by Rainer Knaepper
Allerdings solltest du dir verkneifen, daraus irgendwelche
Rückschlüsse auf tatsächliche technische Zusammenhänge zu ziehen und
die rechthaberisch als Erklärung zu verkaufen.
Die "liebsten" Kunden sind mir die mit solidem Halbwissen.
Deine Sache. Nicht meine.
Post by Rainer Knaepper
Mit denen, die Ahnung haben, kann man fruchtbar diskutieren und man
lernt gerne auch etwas dabei.
Richtig - daher mach ich das ständig. Oder meinst Du im Ernst, ich gehe dazu ins Web? Wo Halbwissen meinungsbildend ist? Wie man hier ja an allen Ecken merkt?
Post by Rainer Knaepper
Denen, die sich auf den Fachmann verlassen, kann man effizient helfen.
Kann ich bestätigen. Man muß nur beachten, WER fachmann FÜR WAS ist.

ICH bin Fachmann für Fotografie - und NICHT für Mathe oder Physik oder
Chemie usw.

Daher ist es vollkommen lächerlich, sich darüber hähmisch zu ereifern.

Klaus
Jürgen Gerkens
2017-09-16 20:54:08 UTC
Permalink
Post by Klaus Esser
Post by Rainer Knaepper
Für deine fotografische Praxis sind deine Faustregeln völlig
ausreichend.
"Faustregeln" sind nichts für mich. Ich bevorzuge als korrekt erwiesene Erfahrungwerte.
Genau die nennen sich üblicherweise Faustregeln. ;-)
--
SCHÖNE GRÜẞE
JÜRGEN
Klaus Esser
2017-09-16 21:39:43 UTC
Permalink
Post by Jürgen Gerkens
Post by Klaus Esser
Post by Rainer Knaepper
Für deine fotografische Praxis sind deine Faustregeln völlig
ausreichend.
"Faustregeln" sind nichts für mich. Ich bevorzuge als korrekt erwiesene Erfahrungwerte.
Genau die nennen sich üblicherweise Faustregeln. ;-)
Das sehe ich anders: "Faustregeln" - im Englischen "rules of thumb" - sind immer etwas "allgemein". Deshalb heissen sie ja so.

Wenn ich eine Einstellung vornehme, einen Test mache und der erweist sich als korrekt ist das keine Faustregel, sondern ein auf diese spezielle Situation angewandter Wert - der NUR IN DIESEM FALL gilt.

Klaua
Rainer Knaepper
2017-09-17 08:18:00 UTC
Permalink
Am Samstag, 16. September 2017 16:40:19 UTC+2 schrieb Rainer
Post by Rainer Knaepper
Für deine fotografische Praxis sind deine Faustregeln völlig
ausreichend.
"Faustregeln" sind nichts für mich. Ich bevorzuge als korrekt
erwiesene Erfahrungwerte.
Zum Erfolg führende, nützliche Erfahrungswerte sind genau das:

Faustregeln.


Rainer
--
So betrachtet ist ein PC ein gutes Gerät: Wenn es funktioniert, dann
ist's schön, man freut sich. Und wenn's nicht tut, dann hat man's
nicht anders erwartet ... *eg* (Dirk Ohme in de.comp.hardware.misc)
Klaus Esser
2017-09-17 12:11:59 UTC
Permalink
Post by Jürgen Gerkens
Faustregeln.
Ich fürchte Du deutest etwas unscharf, was ich schreibe ;-)
Ich hatte meine Ansicht dazu schon in der Anwort an Jürgen formuliert.

Nimm sie einfach zur Kenntnis - ich werde darüber nicht diskutieren.

Klaus
Jürgen Gerkens
2017-09-15 19:32:56 UTC
Permalink
Post by Klaus Esser
Dein Kardinalproblem ist, daß Du max. 25% verstehst, wenn es ans Eingemachte geht.
Das aber mit maximalem Brimborium.
Bei deinem Basiswissen, das sich hier nachweislich oft genug als unter
alles Kanone heraus gestellt hat, kannst Du nun wirklich nicht
beurteilen, wer hier was versteht.

Du anmaßender Vollpfosten hast ja schon zum Beispiel ausgerechnet Erik
die Pferdefüsse verlustfreier Datenkomprimierung "erklären" wollen, ohne
zu checken auf was für einem Lehrstuhl Professor Doktor B. sitzt, dem Du
Möchtegernweitpinkler gerade vorlaut die Kompetenz streitig machen wolltest.

Bestenfalls mal den Videorecorder programmiert, geschweige denn jemals
selbst eine Zeile Code, aber La Paloma pfeifen wollen.

Und richtig lustig ist es dann, wenn Du dich mal wieder in den
Zitatebenen verrannt hast, nicht mal mehr checkst, wer was schrieb,
ohnehin alle möglichen Aussagen verpeilst und aus dem Zusammenhang reist
und Dich am Ende gar mit Deinen eigenen Vorreden streitest, weil Du
Fossil nicht einmal mehr schnallst, das Du auf deinen eigenen Unsinn
reagierst.

Wenn ausgerechnet Du meinst beurteilen zu wollen, wer hier was verstehen
kann und wer nicht, da kann man sein Urteil besser gleich am Glücksrad
auswürfeln.
--
SCHÖNE GRÜẞE
JÜRGEN
Klaus Esser
2017-09-15 21:43:57 UTC
Permalink
Post by Jürgen Gerkens
Post by Klaus Esser
Dein Kardinalproblem ist, daß Du max. 25% verstehst, wenn es ans Eingemachte geht.
Das aber mit maximalem Brimborium.
Bei deinem Basiswissen, das sich hier nachweislich oft genug als unter
alles Kanone heraus gestellt hat, kannst Du nun wirklich nicht
beurteilen, wer hier was versteht.
Ich sprach von DIR, Jürgen, als ich 25% nannte. Nicht von anderen.
Post by Jürgen Gerkens
Du anmaßender Vollpfosten hast ja schon zum Beispiel ausgerechnet Erik
die Pferdefüsse verlustfreier Datenkomprimierung "erklären" wollen, ohne
zu checken auf was für einem Lehrstuhl Professor Doktor B. sitzt, dem Du
Möchtegernweitpinkler gerade vorlaut die Kompetenz streitig machen wolltest.
Blödsinn.

Ich habe beim Begriff "verlustfreie Kompression" das verlust"FREI" HINTERFRAGT und
argumentiert, wie weit es verlust"FREIE Kompression" überhaupt geben KANN - wo ja "Kompression" bereits eine Veränderung des Originals darstellt.

Da ich kein Techniker bin sondern Fotograf ist das - für mich - eher eine semantische Frage denn eine technische.

Einen Begriff zu hinterfragen werde ich mir weder von Dir noch von sonstjemadem verbieten lassen - und wenn es Einstein oder Mutter Theresa persönlich wären . .

Klaus
Frank Möller
2017-09-16 09:21:29 UTC
Permalink
Post by Klaus Esser
Post by Jürgen Gerkens
Du anmaßender Vollpfosten hast ja schon zum Beispiel ausgerechnet Erik
die Pferdefüsse verlustfreier Datenkomprimierung "erklären" wollen, ohne
zu checken auf was für einem Lehrstuhl Professor Doktor B. sitzt, dem Du
Möchtegernweitpinkler gerade vorlaut die Kompetenz streitig machen wolltest.
Blödsinn.
Ich habe beim Begriff "verlustfreie Kompression" das verlust"FREI"
HINTERFRAGT und argumentiert, wie weit es verlust"FREIE Kompression"
überhaupt geben KANN - wo ja "Kompression" bereits eine Veränderung des
Originals darstellt.
Du hast es also immer noch nicht verstanden.

Na, dann...

--
Klaus Esser
2017-09-16 11:58:24 UTC
Permalink
Post by Frank Möller
Post by Klaus Esser
Post by Jürgen Gerkens
Du anmaßender Vollpfosten hast ja schon zum Beispiel ausgerechnet Erik
die Pferdefüsse verlustfreier Datenkomprimierung "erklären" wollen, ohne
zu checken auf was für einem Lehrstuhl Professor Doktor B. sitzt, dem Du
Möchtegernweitpinkler gerade vorlaut die Kompetenz streitig machen wolltest.
Blödsinn.
Ich habe beim Begriff "verlustfreie Kompression" das verlust"FREI"
HINTERFRAGT und argumentiert, wie weit es verlust"FREIE Kompression"
überhaupt geben KANN - wo ja "Kompression" bereits eine Veränderung des
Originals darstellt.
Du hast es also immer noch nicht verstanden.
Na, dann...
Ich verstehe viel von Fotografie. Das muss ich, um ein 5-stelliges Tageshonorar zu rechtfertigen.
Ich verstehe was von präziser Sprache - das gehört zum Produzieren von Fotos dazu. Unbedingt.

Ich verstehe nur das Nötigste von Mathematik, weil ich damit NICHT mein Geld verdiene und es Leute gibt, die in den damit zusammen hängenden Themen Profis sind.

Und dann gibt es Leute, die in Bildbearbeitung und PrePress absolute Profis sind - mehr, als Wissenschaftler es sein können, die nicht auch genügende Praxiserfahrung mit Fotografie, Bildbearbeitung und PrePress auf hohem fachlichen wie auch ästhetischem Niveau besitzen.

Also: ja - ich hab es noch immer nicht verstanden, wo die Grenze ist zwischen verlust"FREI" und verlust"ARM".

Ich kenne die GÄNGIGEN Definitionen und Beschreibungen.

Ich MUSS sie aber nicht rückhaltlos glauben.

Letztlich mag es - ich hatte das bereits x-Male gesagt - ein eher semantisches Problem sein.

Denn es hat nichts mit meiner täglichen Arbeit zu tun:

Ich SEHE, wenn etwas nicht so ist wie es nach meinem Empfinden sein sollte - denn DAS ist *für mich* das einzig relevante Kriterium.

ICH stehe dafür gerade, ob ein Klient mit MEINER Arbeit erfolgreich arbeiten kann.

Fazit: für mich stellt sich die Frage also nicht wirklich - ich bin nicht auf IRGENDEINE Kompression meiner RAW-Daten angewiesen über die hinaus, die evtl. in der Kamera sowieseo passiert und auf die ich keinen Einfluss habe.

Ich wähle meine Kameras usw. sehr mehr als 40 Jahren EINZIG danach aus, was sie mir für ERGEBNISSE liefern - nicht danach, was in irgendwelchen Datenblättern oder Testberichten steht.

Daher hatte ich eine 5DS nach einer Woche zurückgegeben.

Weil dies mein Prinzip zu handeln ist interessiert mich Kompression nicht wirklich und ich beschäftige mich auch nicht damit - muss ich nicht.

Daß ich darüber nachdenke und diese Gedanken formuliere wirst Du mir bitte verzeihen.

Die einzige Kompression, über die ich nachdenken MUSS - im Bildbereich - ist die, mit der die zehntausende von Tiles für die Darstellung von hochaufgelösten sphärischen Panoramen notgedrungen verarbeitet werden, um sie interaktiv in Browsern und Headsets schnell laden und flüssig wiedergeben zu können.

Diese - JPG - Kompression ist unbedingt nötig definitiv unvermeidlich.

Sie zeigt sich spätestens bei 100% Zoom in einer Milderung der Detailschärfe - nachdem ich sie so gewählt habe, daß zumindest kaum bzw. keine sichtbaren Tonwertabrisse auftreten.

Dass Jürgen dies alles nicht versteht sehe ich ihm nach - ich streite ja immer mal wieder ganz gern mit ihm.

Deinen Hintergrund kenne ich nicht.

Klaus
Frank Möller
2017-09-16 12:21:11 UTC
Permalink
Post by Klaus Esser
Post by Frank Möller
Post by Klaus Esser
Post by Jürgen Gerkens
Du anmaßender Vollpfosten hast ja schon zum Beispiel ausgerechnet Erik
die Pferdefüsse verlustfreier Datenkomprimierung "erklären" wollen, ohne
zu checken auf was für einem Lehrstuhl Professor Doktor B. sitzt, dem Du
Möchtegernweitpinkler gerade vorlaut die Kompetenz streitig machen wolltest.
Blödsinn.
^^^^^^^^^
Post by Klaus Esser
Post by Frank Möller
Post by Klaus Esser
Ich habe beim Begriff "verlustfreie Kompression" das verlust"FREI"
HINTERFRAGT und argumentiert, wie weit es verlust"FREIE Kompression"
überhaupt geben KANN - wo ja "Kompression" bereits eine Veränderung des
Originals darstellt.
Du hast es also immer noch nicht verstanden.
Na, dann...
[...]
Also: ja - ich hab es noch immer nicht verstanden, wo die Grenze ist
zwischen verlust"FREI" und verlust"ARM".
Gut. Nur mußt Du dann vielleicht nicht unbedingt andere des
Blödsinn-Laberns bezichtigen (ich hab's Dir oben unterstrichen), wenn es
eben doch so ist, wie es halt ist, und Du das auch weißt.

Oder ist das bei Euch beiden vielleicht nur sowas wie "und täglich kuscheln
die Grizzlies"?

--
Klaus Esser
2017-09-16 13:29:42 UTC
Permalink
Post by Frank Möller
Post by Klaus Esser
Post by Frank Möller
Post by Klaus Esser
Post by Jürgen Gerkens
Du anmaßender Vollpfosten hast ja schon zum Beispiel ausgerechnet Erik
die Pferdefüsse verlustfreier Datenkomprimierung "erklären" wollen, ohne
zu checken auf was für einem Lehrstuhl Professor Doktor B. sitzt, dem Du
Möchtegernweitpinkler gerade vorlaut die Kompetenz streitig machen wolltest.
Blödsinn.
^^^^^^^^^
Post by Klaus Esser
Post by Frank Möller
Post by Klaus Esser
Ich habe beim Begriff "verlustfreie Kompression" das verlust"FREI"
HINTERFRAGT und argumentiert, wie weit es verlust"FREIE Kompression"
überhaupt geben KANN - wo ja "Kompression" bereits eine Veränderung des
Originals darstellt.
Du hast es also immer noch nicht verstanden.
Na, dann...
[...]
Also: ja - ich hab es noch immer nicht verstanden, wo die Grenze ist
zwischen verlust"FREI" und verlust"ARM".
Gut. Nur mußt Du dann vielleicht nicht unbedingt andere des
Blödsinn-Laberns bezichtigen (ich hab's Dir oben unterstrichen), wenn es
eben doch so ist, wie es halt ist, und Du das auch weißt.
Das "Blödsinn" bezog sich - ERKENNBAR - auf Jürgens Tirade.

Und die ist wirklich Blödsinnig und verkennt die tatsächliche Situation.

Klaus (ich hab jetzt anderes zu tun - also entschuldige, wenn ich nicht
weiter drauf eingehe)
Patrick Rudin
2017-09-16 13:11:01 UTC
Permalink
Post by Klaus Esser
Ich verstehe viel von Fotografie. Das muss ich, um ein 5-stelliges Tageshonorar zu rechtfertigen.
Upps. Noch alte Verträge auf Basis der italienischen Lira?

Da solltest Du mal mit Deinen Auftraggebern reden. Auch wenn Du
vielleicht ein wenig länger brauchst als andere, das ist nicht ok.
Reicht ja wirklich nicht zum Leben.


Gruss

Patrick
Jürgen Gerkens
2017-09-16 14:21:09 UTC
Permalink
Post by Patrick Rudin
Post by Klaus Esser
Ich verstehe viel von Fotografie. Das muss ich, um ein 5-stelliges Tageshonorar zu rechtfertigen.
Upps. Noch alte Verträge auf Basis der italienischen Lira?
Und selbst die bekommt er nördlich des Polarkreises.
--
SCHÖNE GRÜẞE
JÜRGEN
Jürgen Gerkens
2017-09-16 12:08:48 UTC
Permalink
Post by Frank Möller
Post by Klaus Esser
Post by Jürgen Gerkens
Du anmaßender Vollpfosten hast ja schon zum Beispiel ausgerechnet Erik
die Pferdefüsse verlustfreier Datenkomprimierung "erklären" wollen, ohne
zu checken auf was für einem Lehrstuhl Professor Doktor B. sitzt, dem Du
Möchtegernweitpinkler gerade vorlaut die Kompetenz streitig machen wolltest.
Blödsinn.
Ich habe beim Begriff "verlustfreie Kompression" das verlust"FREI"
HINTERFRAGT und argumentiert, wie weit es verlust"FREIE Kompression"
überhaupt geben KANN - wo ja "Kompression" bereits eine Veränderung des
Originals darstellt.
Du hast es also immer noch nicht verstanden.
Na, dann...
Q.E.D.
--
SCHÖNE GRÜẞE
JÜRGEN
Johannes Leckebusch
2017-09-14 20:21:43 UTC
Permalink
Post by Helmut Faugel
Post by Jens Look
Post by Jochen Petry
Der Wurm muss dem Fisch schmecken, nicht dem Angler. ;-)
Ist in dem Fall aber eher das gleiche.
Die Bilder sind zum beurteilen aber sehr gut geeignet und das ist eh
nichts das man wegen Beispielbildern her kauft. Das testet man selber.
Ich habe eine Produktion im Auge bei der ich die mal testen werde.
https://digitaltransitions.com/see-world-new-set-eyes-innovation-behind-trichromatic/
Naja, ein paar Schlußfolgerungen sind da meiner Meinung nach an den
Natürlich resultieren schmalere RGB-Filter in einer geringeren
Empfindlichkeit. Wie diese Filter zu weniger Farbrauschen bei
hoher Empfindlichkeit führen soll ist deren Geheimnis ...
Die Frage ist wie gut die Farbwiedergabe tatsächlich ist. Irgendwie
vermisse ich in den Bildern Gelbtöne. Gelb, das kann ein Gemisch
aus rot und grün sein, oder spektral sauber, zwischen rot und grün
liegen. Gibt es da blinde Flecken des neuen Sensors? Die Bilder die
ich bisher gesehen haben saubere gesättigte Farben, aber kann der
Sensor über das gesamte Spektrum saubere Farben aufnehmen? Oder
fehlt da etwas, wie es zB. bei der Beleuchtung mit billigen weißen
LEDs vorkommt? Es ist ja nicht so, dass die anderen Bildsensor-
hersteller doof wären ...
Tja, das Foto eines Spektrums würde ungefähr so aussehen (ok, etwas
rasche Simulation mit kleinen Fehlern):

Loading Image...
--
Johannes Leckebusch - AR3

http://www.johannes-leckebusch.de/
http://www.johannes-leckebusch.de/Fotogalerien/index.html
http://www.foto.ungruen.de/index2.html
Luigi Rotta
2017-09-15 07:10:44 UTC
Permalink
Am Thu, 14 Sep 2017 21:47:12 +0200 schrieb Helmut Faugel
Post by Helmut Faugel
Gelb, das kann ein Gemisch
aus rot und grün sein, oder spektral sauber, zwischen rot und grün
liegen.
Für unsere Augen ist Gelb immer ein Gemisch zwischen rot und grün.

Und jetzt?
--
Gruss

Luigi


Ever tried. Ever failed. No matter.
Try Again. Fail again. Fail better.
Samuel Beckett
Helmut Faugel
2017-09-15 08:30:31 UTC
Permalink
Post by Luigi Rotta
Am Thu, 14 Sep 2017 21:47:12 +0200 schrieb Helmut Faugel
Post by Helmut Faugel
Gelb, das kann ein Gemisch
aus rot und grün sein, oder spektral sauber, zwischen rot und grün
liegen.
Für unsere Augen ist Gelb immer ein Gemisch zwischen rot und grün.
Und jetzt?
Kommt es drauf an dass das auch in der richtigen Helligkeit
umgestezt wird.
--
Helmut Faugel
Klaus Esser
2017-09-15 11:46:10 UTC
Permalink
Post by Helmut Faugel
Post by Luigi Rotta
Für unsere Augen ist Gelb immer ein Gemisch zwischen rot und grün.
Und jetzt?
Kommt es drauf an dass das auch in der richtigen Helligkeit
umgestezt wird.
So ist es!
"Designed around the concept of mimicking (Nachahmen) the dynamic color response - differenzieren von Tonwert-Abstufungen (Dynamik) - of the human eye . . "

Es geht um möglichst Artefakt-arme Rezeption von Farbwerten durch den Sensor und ebensolcher Speicherung.

JEDE ART von Wandlung und Speicherung ist behaftet mit Artefakten.
Diese zu minimieren ist das Ziel - und nicht, sie zu vermeiden. Das geht nicht.

Daher ist ein direkter Vergleich unseres Sehens und einer digitalisierten und konservierten Version davon absolut sinnfrei.

Einzig interessant - und relevant - ist der Grad der NÄHERUNG u. A. durch Minimierung von Artefakten.

Und DAS ist durchaus diskutabel.

Je weniger Artefakte entstehen umso vorteilhafter ist das naturgemäß. Und das oben Thematisierte scheint - ich bin da lieber vorsichtig - ein brauchbarer Ansatz zu sein.

Nun ist eine auf Anwender zielende Webseite ja beileibe keine wissenschaftliche Standards erfüllende Abhandlung . . . und auch nicht als solche gedacht!

Klaus
Dieter Michel
2017-10-03 23:15:43 UTC
Permalink
Hallo Helmut,
Post by Helmut Faugel
Natürlich resultieren schmalere RGB-Filter in einer geringeren
Empfindlichkeit.[...]
Die Frage ist wie gut die Farbwiedergabe tatsächlich ist. Irgendwie
vermisse ich in den Bildern Gelbtöne. Gelb, das kann ein Gemisch
aus rot und grün sein, oder spektral sauber, zwischen rot und grün
liegen. Gibt es da blinde Flecken des neuen Sensors? Die Bilder die
ich bisher gesehen haben saubere gesättigte Farben, aber kann der
Sensor über das gesamte Spektrum saubere Farben aufnehmen? Oder
fehlt da etwas, wie es zB. bei der Beleuchtung mit billigen weißen
LEDs vorkommt? Es ist ja nicht so, dass die anderen Bildsensor-
hersteller doof wären ...
also theoretisch wäre es natürlich denkbar, einen
Sensor zu entwickeln, dessen Filter beispielsweise
die (in Messgeräten verwendeten) genormten Spektral-
wertfunktionen nachbilden. Dann hätte man einen
Kamerasensor, der tatsächlich alle sichtbaren Farbtöne
unterscheiden kann.

Allerdings sind solche Filter ziemlich aufwendig
herzustellen - ich wüsste im Moment nicht, dass das
in einem RGB-Kamerasensor in der üblichen Weise
herstellbar wäre (aber man weiss ja nie).

Wenn das gelingt, hast Du auch keine Lücken oder blinde
Flecken im Spektrum - auch das erwähnte Gelb wird als
Mischfarbe aus Rot und Grün genauso abgebildet wie als
reine Spektralfarbe mit verringerter Sättigung.

Für Messzwecke gibt es das auch zu kaufen ($$$), allerdings
sind da die Filter nicht auf dem Sensor integriert,
sondern als (mehrschichtige) Glasfilter vorgeschaltet,
so dass man drei Aufnahmen nacheinander machen muss.

Man bekommt dann für jedes Pixel Farbkoordinaten X, Y und Z
(siehe https://de.wikipedia.org/wiki/CIE-Normvalenzsystem),
die man dann im Prinzip in den Wunschfarbraum umrechnen könnte.

Über Details dieses trichromatischen (soll heissen Dreifarb- ?)
Sensors habe ich bis jetzt nicht viel gefunden, oder habe ich da
was übersehen?

Viele Grüße

Dieter Michel
Jens Look
2017-10-09 16:09:15 UTC
Permalink
Post by Dieter Michel
Über Details dieses trichromatischen (soll heissen Dreifarb- ?)
Sensors habe ich bis jetzt nicht viel gefunden, oder habe ich da
was übersehen?
Ich bekomme die am Donerstag von Niels V. Knudsen von Phase One
vorgeführt falls es da spezielle Fragen geben sollte...

Jens
Dieter Michel
2017-10-10 16:01:00 UTC
Permalink
Hallo Jens,
Post by Jens Look
Post by Dieter Michel
Über Details dieses trichromatischen (soll heissen Dreifarb- ?)
Sensors habe ich bis jetzt nicht viel gefunden, oder habe ich da
was übersehen?
Ich bekomme die am Donerstag von Niels V. Knudsen von Phase One
vorgeführt falls es da spezielle Fragen geben sollte...
danke für das Angebot! Mich würde schon interessieren,
was sie da mit ihren Filtern treiben, im Gegensatz zu
den "herkömmlichen" Sensoren.

Immerhin habe ich bei einer kurzen Websuche den TCS3430
von AMS gefunden, der immerhin die Filter, die man gerne
idealerweise hätte (XYZ tristimulus filters) auf dem Chip
integriert, angeblich:

http://ams.com/eng/Press-Center/Press-Releases/TCS3430

Da heisst es: "[...] proprietary ams technology for fabricating
interferometric optical filters directly on the wafer. The ams
interferometric filters can be made with the spectral characteristics
of the XYZ spectral responsivity model of the human eye."

Die Grafiken zur spektralen Empfindlichkeit im Datenblatt
sehen eigentlich ganz gut aus:
http://ams.com/eng/content/download/927911/2220899/476878

Das ("XYZ spectral responsivity model of the human eye")
hätte man natürlich gern, aber der TCS3430 ist halt erstmal
nur ein Pixel. Wenn sie aber schreiben, dass sie die
Interferenzfilter auf Waferebene realisieren, also nicht
einfach "nur" als Komponente in den IC integrieren, dann
könnte man ja auch daran denken, einen Sensor mit
mehreren/vielen Pixel zu machen.
Ich glaub, ich ruf da mal an und frage.

Danke nochmal und viele Grüße

Dieter Michel
Jens Look
2017-10-11 13:31:45 UTC
Permalink
Post by Dieter Michel
danke für das Angebot! Mich würde schon interessieren,
was sie da mit ihren Filtern treiben, im Gegensatz zu
den "herkömmlichen" Sensoren.
Er sollte es wissen und ich hoffe dann mal das ich die rein technische
Seite auch soweit verstehe um es weiter zu geben ;-)
Mich interessiert da mehr die reine Bildqualität im Vergleich zu den
anderen Backs.
Ob sie dir bei einem Anruf genaue Auskunft geben glaube ich fast nicht.
Im direkten Gespräch sind sie da meistens offener und ich kenne da
eh schon einige persönlich und sie freuen sich auch immer wenn sie
in New York jemanden mit Dänischen Vornamen treffen :-)

Jens
Klaus Esser
2017-10-12 17:33:11 UTC
Permalink
Post by Jens Look
Mich interessiert da mehr die reine Bildqualität im Vergleich zu den
anderen Backs.
Logisch, was sonst.

Andererseits ist es auch immer cool zu wissen, WOHER die Bildqualität resultiert.

Zumindest ich hab mich auch bei Filmmaterial immer dafür interessiert, WORAN es lag, DASS der Tri-X so wirkte, WIE er wirkte.

Das ist so´n Fotografen-Ding, weißt Du . . .

Man kann auf diese Weise oft Irritationen im Umgang vermeiden und stattdessen Eigenheiten zum Vorteil nutzen.

Hast Du viel auf Film gearbeitet?

Klaus
Dr. Joachim Neudert
2017-10-12 17:50:24 UTC
Permalink
Post by Klaus Esser
Hast Du viel auf Film gearbeitet?
Klaus
Du hast mich zwar nicht gefragt, aber es passt gerade so schön rein.
Chemie-Nostalgie...

Mit zwölf Jahren war ich mit meinem Bruder in der Dunkelkammer und habe
gelernt wie man Schwarzweiß-Filme entwickelt und vergrößert auf Papier.
Als Student konnte ich dann Farbnegativfilme C41 entwickeln und
vergrößern, und mit den Prozessen Kodak RC14 und RC78 und Cibachrome
Farbvergrößerungen von Negativfilmen und Umkehrfilmen selbst
anfertigen. Eine mit einem Jäger Aquarien-Regelheizer auf 38,4° (100
Grad Fahrenheit) temperierte Kinderbadewanne hat den Jobo Prozessor
ersetzt. Ein Vergrößerungsgerät von Kaiser mit eingelegten
Gelatinefiltern ersetzte mir den teuren Durst Farbmischkopf.


Mit einer Kinderbadewanne mit Jäger Regelheizer anstelle eines Jobo
Prozessors für 3000 DM Bilder zu entwickeln, ist ingeniös studentisch
improvisiert. Minimale Kosten: 30 DM, plus Jobo-Tank 80 DM, plus
Chemie und Papier. Können musste man es halt, und Zeit haben für 12
Minuten Hand-Rotation in der Kinderbadewanne- für jedes Foto (OK, 20*25
cm gingen 2 in die Trommel. Und 80 ml Chemie.).

Genauso ist das Farbvergrößern mit Gelatinefiltern für 15 DM in der
Einlege-Schublade anstelle eines Durst Farbmischkopfes für 2000 DM
dasselbe: mit einfachsten Mitteln improvisiert.
Heute habe ich die Mittel. Damals nicht. Ging aber auch, und hat sehr
viel Spaß gemacht und sehr viel gelehrt. Wenn man den Farbstich nach 2
Tagen sieht, nicht nach 1 Sekunde, muß man beginnen geplant vorzugehen..

Habt ihr mal selbst ein Cibacrome-Foto nach 12 Minuten
Vorwässern-Entwickeln-Bleichfixieren-nachwässern aus der Trommel
genommen, mit dem Föhn getrocknet und gesehen wie die Rottöne beginnen
zu glänzen wie ein Rubin?

Nicht?

Dann fehlt Euch ein Schlüsselerlebnis.

Gruß

Joachim
Klaus Esser
2017-10-12 18:10:34 UTC
Permalink
Post by Dr. Joachim Neudert
Heute habe ich die Mittel. Damals nicht. Ging aber auch, und hat sehr
viel Spaß gemacht und sehr viel gelehrt.
Genau! Und daher muss man halt mehr kennen, als wo das Knöpfchen zum
Auslösen ist ;-)

Klaus
Jens Look
2017-10-12 17:52:40 UTC
Permalink
Post by Klaus Esser
Andererseits ist es auch immer cool zu wissen, WOHER die Bildqualität resultiert.
Das interessiert mich erstmal nur wenn dadurch sich etwas ergibt das ich
beim fotografieren wirklich beachten muss bzw. nutzen kann. Da würde es
mich interessieren wie sie bei welchen Licht eventuell reagiert was bei
mir z.B. beim Schmuck bei Goldfarben nicht unwichtig ist. Ich muss aber
nicht wissen wie die Kamera und der Filter das jetzt ganz genau macht.
Post by Klaus Esser
Hast Du viel auf Film gearbeitet?
Ja. Mit 13 oder 14 die erste eigene Dunkelkammer gehabt und bei einer CD
ROM z.B. 4000 Dias eingescannt für die Panorama Tour.

Das hier steht auf meinem Schreibtisch (10 Minuten alt das Foto...)
Loading Image... War das letzte mal vor zwei Wochen
im Einsatz.

Jens
Klaus Esser
2017-10-12 18:07:42 UTC
Permalink
Post by Klaus Esser
Post by Klaus Esser
Andererseits ist es auch immer cool zu wissen, WOHER die Bildqualität
resultiert.
Das interessiert mich erstmal nur wenn dadurch sich etwas ergibt das ich
beim fotografieren wirklich beachten muss bzw. nutzen kann.
Ach was - echt jetzt?? :-))
Post by Klaus Esser
Da würde es
mich interessieren wie sie bei welchen Licht eventuell reagiert was bei
mir z.B. beim Schmuck bei Goldfarben nicht unwichtig ist.
Eben.
Post by Klaus Esser
Ich muss aber
nicht wissen wie die Kamera und der Filter das jetzt ganz genau macht.
"Ganz genau" werden die Dir das sowieso nicht sagen . . ;-) und es ist auch wenig relevant, weil Du es eh nicht beeinflussen kannst.

Beeinflussen kannst Du die Arbeitsweise von Kamera/Filter usw. durch bestimmte Art, Licht oder Farben vorzufiltern, zu polen usw.

Speziell bei Schmuck ist es ausserordentlich kritisch, WIE feinste Kontrastverläufe
wirken, WIE ineinander verlaufende Gold- und Silber-/Chrom-Töne in Reflexionen sich trennen usw.

Oder wie weit bei Brillianten außer dem Geglitzer auch die Eigenfarbe bestehen bleibt.

Bei solchen Dingen würde ich noch am Ehesten einen bildentscheidenden Unterschied erwarten - nicht bei schrecklich geschmacklos-bunten Farben wie bei dem Teaser von P1 . . . :-)

Klaus
Jens Look
2017-10-12 22:47:39 UTC
Permalink
Post by Jens Look
Ich bekomme die am Donerstag von Niels V. Knudsen von Phase One
vorgeführt falls es da spezielle Fragen geben sollte...
So, ich habe sie mir mal etwas länger vorführen lassen.
Sie haben momenten da hier beim Händler nur die eine und ich
werde aber sobald es geht bei mir im Studio auch noch mal einen
Test machen.

Aber so konnte man auch einiges im direkten Vergleich mit dem
normalen Back machen und Niels hatte recht viele Bilder dabei die
mit beiden gemacht wurden.

Zum technischen kenne ich mich da zu wenig aus um wohl die wirklich
wichtigen Fragen zu stellen, aber der Sensor ist der gleiche und eben
nur mit anderen Filtern und erstmal exklusiv bei PhaseOne für einige
Zeit.
Er hatte mir auch einige gezeigt mit der ersten Version die sie von Sony
bekommen haben und bei der sie die Kamera erstmal genauso wie das
normale Back angesteuert hatten und da waren die Farben dann extrem
knallig.

Bei den Farben kommt es sehr darauf an wie stark die Änderung ist, aber
Abstufungen mit den Farben daneben ist deutlich besser.
Purple Fringing ist deutlich weniger ein Problem und bei manchen Farben
ist der Unterschied schon sehr gut zu sehen.
Bei einer reinen Farbtafel ist der Unterschied so erstmal minimal.
Man kann auch sonst vieles wenn man will nachträglich hin drehen mit C1,
aber es "passt" halt einfach alles deutlich besser direkt aus der
Kamera raus. Bei verschiedenen Farbabstufungen nebeneinander
sieht man die Unterschiede recht gut wobei es nicht so ist das einfach
der Farbumfang grösser ist. Schwer zu beschreiben aber wirklich da und
keine Einbildung ;-)

Die Grundempfindlichkeit ist mit 35 ISO niedriger aber dafür das
Farbrauschen sehr deutlich besser und so sieht sie bei hohen ISO
trotzdem besser aus imVergleich.

Ansonsten gibt es eine Änderung beim Fokus Stacking bei dem die Kamera
ja eh alles weiss (also welches Back, Objektiv und Blende) das sie einem
jetzt anzeigt welche Schritte nötig sind wenn man einmal den Fokus vorne
und hinten festgelegt hat.

Der Autofokus kann jetzt (etwas wie es das bei Hasselblad schon gab)
selber nachstellen wenn man auf die Augen scharf stellt und dann
verschiebt. Das lernt er selber beim fotografieren. Klappt also beim
ersten Bild nicht perfekt aber wird dann besser und dafür dann ohne
Verzögerung.

Das Tool das die Vibrationen misst macht das jetzt auch bei der Aufnahme
und zeigt einem danach an wie stark sie war und auch ob es unter der
Grenze war bei der es sichtbar wäre (abhängig vom Back und dem Objektiv)

Mit Profoto Sendern lässt sie jetzt auch auslösen. Das ist auch noch neu
das sie die Signale nicht nur senden, sondern auch empfangen kann.

Alles schon sehr schick

Jens
Jens Look
2017-10-21 15:52:53 UTC
Permalink
Jens Look <***@spinning-eye.com> wrote:

Noch einmal etwas zum lesen wenn es jemanden interessiert:

https://digitaltransitions.com/phase-one-trichromatic-part-1-the-science/

https://digitaltransitions.com/phase-one-trichromatic-part-2-results/

Ich bin gerade etwas im Stress und nächste Woche ist hier die
Photo Pus Expo bei der mein Händler einen Stand hat, aber ich
werde sobal wie möglich selber mal Testfotos mit dem neuen
und dem alten 100mp Back machen und kann die dann auch
mal zeigen

Jens
Oliver Jennrich
2017-10-21 18:33:04 UTC
Permalink
Post by Jens Look
https://digitaltransitions.com/phase-one-trichromatic-part-1-the-science/
https://digitaltransitions.com/phase-one-trichromatic-part-2-results/
Ich bin gerade etwas im Stress und nächste Woche ist hier die
Photo Pus Expo bei der mein Händler einen Stand hat, aber ich
^^^^^^^^^

Freud?

SCNR
--
S/W Fotos: http://500px.com/oliver_jennrich
Google+ : https://plus.google.com/+OliverJennrich/photos
Flickr : http://www.flickr.com/photos/oliver_jennrich
Jens Look
2017-10-21 18:41:28 UTC
Permalink
Post by Oliver Jennrich
Freud?
Nicht wirklich. Weder so oder noch mit einem zweiten s.
Ich kaufe dann aber trotzdem noch ein "l" dazu :-)

Ich weiss auch noch nichtmal ob ich hingehe.
Ich habe zwar eine Karte und die ist nur 10 Minuten zu Fuss von
meinem Studio, aber irgendwie interessieren mich Messen nicht so.
Und besseren Kaffee habe ich auch im Studio als die dort ;-)

Jens
Peter.Fronteddu
2017-09-14 17:25:26 UTC
Permalink
Post by Klaus Esser
1) wie eine Firma wie PhaseOne die *relevanten* Infos so idiotisch verstecken kann
Das ist einfach. Entweder ein Schlips, der was von Responsive gehört
hat, hat den Scheiss angeordnet. Oder ein Weppdesigner, für den
Responsive Webdesign ein Dogma ist, hat das verbrochen. Dass die Nummer
mit "funktionert von Smartfön bis 30" Bildschirm gleich gut einfach
Quatsch ist, spricht sich erst mit Web 5.0 rum.

Wurscht, Danke für den Link.
Post by Klaus Esser
und
2) warum eine Firma wie PhaseOne sich fast jedesmal mit solch maximal banaler People- Fotogfrafie präsentieren muss . . . das ist ja peinlich . .
Naja, muss halt bunt sein, wegen trichromatisch ;)

Wichtiger neben dem ganzen Gelaber wären mir raw samples. Nicht dass das
meine Preisklasse ist, aber scharf, viele Pixel und knalle Farben find
ich halt geil zum Gucken ;)

Peter
Klaus Esser
2017-09-14 17:36:58 UTC
Permalink
Post by Peter.Fronteddu
Naja, muss halt bunt sein, wegen trichromatisch ;)
Wichtiger neben dem ganzen Gelaber wären mir raw samples. Nicht dass das
meine Preisklasse ist, aber scharf, viele Pixel und knalle Farben find
ich halt geil zum Gucken ;)
kannst Dir ja das Beispielbild runterladen - "Sownload RAW-Files" - und dazu die 30 Tage-Testversion von C1.
Ist völlig problemlos.

Klaus
Jens Look
2017-09-14 17:46:37 UTC
Permalink
Post by Peter.Fronteddu
Wichtiger neben dem ganzen Gelaber wären mir raw samples. Nicht dass das
meine Preisklasse ist, aber scharf, viele Pixel und knalle Farben find
ich halt geil zum Gucken ;)
Wird es sicher bald einige öffentlich geben. Ich habe vier verschiedene
als RAW und die sind schon wirklich sehr gut.
Eines haben sie ja direkt auf der Seite.

Jens
Peter.Fronteddu
2017-09-15 04:28:49 UTC
Permalink
Post by Jens Look
Wird es sicher bald einige öffentlich geben. Ich habe vier verschiedene
als RAW und die sind schon wirklich sehr gut.
Eines haben sie ja direkt auf der Seite.
Ja, Danke euch für den Hinweis Ich habs tatsächlich gefunden ;)

Peter
Patrick Rudin
2017-09-14 12:15:19 UTC
Permalink
Post by Klaus Esser
https://www.phaseone.com/
Schade, dass nicht genau angegeben wird, ob sich die Primärfarben
überhaupt nicht mehr überschneiden. Graphik und Text deuten das
zumindest an.

Kurzer Versuch mit dcraw:
Filename: 0.IIQ
Timestamp: Sat Aug 19 09:02:55 2017
Camera: Phase One IQ3 100MP_NewCF
ISO speed: 100
Shutter: 1/500.0 sec
Aperture: f/8.0
Focal length: 45.0 mm
Embedded ICC profile: no
Number of raw images: 1
Thumb size: 640 x 480
Full size: 11976 x 8852
Image size: 11608 x 8708
Output size: 11608 x 8708
Raw colors: 3
Filter pattern: RGGBRGGBRGGBRGGB
Daylight multipliers: 1.000000 1.000000 1.000000
Camera multipliers: 2.458548 1.000000 1.244026 0.000000
***@piazzolla:~/Bilder/drf/trichromatic$ dcraw -v 0.IIQ
Loading Phase One IQ3 100MP_NewCF image from 0.IIQ ...
0.IIQ: Corrupt data near 0x350
Phase One correction...
Scaling with darkness 0, saturation 64508, and
multipliers 1.000000 1.000000 1.000000 1.000000
AHD interpolation...
Building histograms...
Writing data to 0.ppm ...

Ergibt schönes, farbig ausgeglichenes Gemüse. Ergo: Nicht das fehlende
Farbprofil ist das Problem, sondern da braucht man wohl einen neuen
Interpolationsalgorithmus.

Hat hier jemand die passende Software von PhaseOne, um das runterladbare
Raw zu begutachten?


Grüsse

Patrick
Patrick Rudin
2017-09-14 12:22:20 UTC
Permalink
Post by Patrick Rudin
Ergibt schönes, farbig ausgeglichenes Gemüse.
Konkret:
Loading Image...

Nehme ich die vorgeschlagenen Farb-Multiplikatoren der Kamera, kommt das
heraus:

Loading Image...

Immerhin, manche Leute hängen sich sowas an die Wand...


Grüsse

Patrick
Stefan Nuetzel
2017-09-14 12:53:56 UTC
Permalink
Post by Patrick Rudin
Hat hier jemand die passende Software von PhaseOne, um das runterladbare
Raw zu begutachten?
Lad' dir doch ne Testversion von C1


Der Dynamikumfang ist auf's Erste beeindruckend. Blauer Himmel rauscht
wenn man ihn hochzieht, also wie immer. Ansonsen ist C1 inzwischen
erstaunlich stabil Selbst auf meinem Bürorechner mit 4 GB RAM kann ich
das File laden.

Beurteilen kann man das Farbverhalten nur wenn man problematische
Farben wie lila Blüten, da hatten doch die Canons immer mit zu
kämpfen, oder Kunstfasergewebe als Testmotiv wählt. Erste Tests von
den üblichen Verdächtigen werden nicht lange auf sich warten lassen.
Patrick Rudin
2017-09-14 14:48:20 UTC
Permalink
Post by Stefan Nuetzel
Lad' dir doch ne Testversion von C1
Ich hab ein bisschen Zweifel, dass das Ding unter Wine64 läuft.
Post by Stefan Nuetzel
Beurteilen kann man das Farbverhalten nur wenn man problematische
Farben wie lila Blüten, da hatten doch die Canons immer mit zu
kämpfen, oder Kunstfasergewebe als Testmotiv wählt. Erste Tests von
den üblichen Verdächtigen werden nicht lange auf sich warten lassen.
Nun ja. Solange nur die Ergebnisse einer Hersteller-Software mit
unbekanntem Algorithmus vorliegen, weiss halt niemand, was die Kamera
mehr kann.


Gruss

Patrick
Klaus Esser
2017-09-14 14:54:53 UTC
Permalink
Post by Patrick Rudin
Post by Stefan Nuetzel
Lad' dir doch ne Testversion von C1
Ich hab ein bisschen Zweifel, dass das Ding unter Wine64 läuft.
Ganz sicher nicht ;-).
Post by Patrick Rudin
Post by Stefan Nuetzel
Beurteilen kann man das Farbverhalten nur wenn man problematische
Farben wie lila Blüten, da hatten doch die Canons immer mit zu
kämpfen, oder Kunstfasergewebe als Testmotiv wählt. Erste Tests von
den üblichen Verdächtigen werden nicht lange auf sich warten lassen.
Nun ja. Solange nur die Ergebnisse einer Hersteller-Software mit
unbekanntem Algorithmus vorliegen, weiss halt niemand, was die Kamera
mehr kann.
Mit genügend Erfahrung und der richtigen Software kann man das durchaus beurteilen. Da muss der Algorithmus nicht bekannt sein.

Das ist wie beim Wetter - wenn´s regnet dann regnet´s. Da muss man nicht erst
den exakten Luftdruck kennen.

:-))

Klaus
Klaus Esser
2017-09-14 14:49:27 UTC
Permalink
Post by Stefan Nuetzel
Post by Patrick Rudin
Hat hier jemand die passende Software von PhaseOne, um das runterladbare
Raw zu begutachten?
Lad' dir doch ne Testversion von C1
Der Dynamikumfang ist auf's Erste beeindruckend. Blauer Himmel rauscht
wenn man ihn hochzieht, also wie immer. Ansonsen ist C1 inzwischen
erstaunlich stabil Selbst auf meinem Bürorechner mit 4 GB RAM kann ich
das File laden.
Erstmalsollte man alle Einstellungen in C1 aufNull setzen. Da ist sonst nämlichkrasse Rauschunterdrückung aktiviert (überflüssig), Schärfung mit
zu großem Radius (ideal ist um 0.4/0.5 und Stärke 300) und nochn paar.

Rauschuntedrückung ist wirklich vollkommen panne bei der Datei.
Post by Stefan Nuetzel
Beurteilen kann man das Farbverhalten nur wenn man problematische
Farben wie lila Blüten, da hatten doch die Canons immer mit zu
kämpfen, oder Kunstfasergewebe als Testmotiv wählt. Erste Tests von
den üblichen Verdächtigen werden nicht lange auf sich warten lassen.
Vor allem sollte man sich Stellen mit subtilen Farbabstufungen raussuchen
statt grelles Pink und so´n FC-like Scheiss wie auf deren Seite.

Das Testbild ist ungefährso aussagekräftig wie ne Titelseite der Bäckerblume.

;-)

Klaus
Stefan Nuetzel
2017-09-15 11:51:37 UTC
Permalink
Post by Klaus Esser
Das Testbild ist ungefährso aussagekräftig wie ne Titelseite der Bäckerblume.
Da geh ich mit dir mal voll konform. ;-)
Helmut Faugel
2017-09-14 12:23:05 UTC
Permalink
Post by Klaus Esser
https://www.phaseone.com/
klingt SEHR interessant!
In der Wissenschaft nichts neues, aber was bringt
das wenn das bei der Wiedergabe, gerade beim Druck,
wieder vermatscht wird?
--
Helmut Faugel
Klaus Esser
2017-09-14 13:30:52 UTC
Permalink
Post by Helmut Faugel
Post by Klaus Esser
https://www.phaseone.com/
klingt SEHR interessant!
In der Wissenschaft nichts neues,
"In der Wissenschaft" und dann in der Praxis sind zweierlei Paar Schuhe ;-)
Die Wissenschaft ist *immer* beträchtlich weiter als die Praxis - schließlich
basiert Praxis auf Wissenschaft.
Post by Helmut Faugel
aber was bringt
das wenn das bei der Wiedergabe, gerade beim Druck,
wieder vermatscht wird?
Was beim Output - egal in welcher Form - "übrig bleibt" hängt in ester
Linie vom Input ab. Wenn der Input fragwürdig ist KANN der Output nicht besser sein.

Fazit: es "bringt" auf jeden Fall was.

Interessant an dem Ganzen finde ich aber das Grundsätzliche: es scheint
eine elementare Weiterentwicklung zu sein, der sehr schnell auch andere folgen werden.

Auch im KB-Bereich ist das spannend!

16bit/RAW ist bei MF eh ein sehr großer Vorteil - der mit KB bisher keine Entsprechung fand.

Ich schätze aber, ein A) weiterentwicklter CMOS-Sensor und ein B) ebenso weiterentwickletes Bayerfilter könnten sich auch auf KB-Sensoren auswirken.

Klaus
Helmut Faugel
2017-09-14 21:29:22 UTC
Permalink
Post by Klaus Esser
Interessant an dem Ganzen finde ich aber das Grundsätzliche: es scheint
eine elementare Weiterentwicklung zu sein, der sehr schnell auch andere folgen werden.
Es ist etwas worüber sich in der Fachliteratur schon viele den Kopf
zerbrochen haben, von Chemikern bei der Filmentwickung, Hersteller
von Strahlenteilern usw.

Und das war schon immer ein Ringen um den Kompromiss wie kriegt man
Farben sauber dargestellt ohne die Farben die zwischen rot, grün
und blau liegen ersaufen zu lassen.
Post by Klaus Esser
Auch im KB-Bereich ist das spannend!
16bit/RAW ist bei MF eh ein sehr großer Vorteil - der mit KB bisher keine Entsprechung fand.
Die Sache ist schlicht die: die hohen Bildfrequenzen von Kleinbild-
kameras brauchen mehr Bandbreite der analogen Signalkette und nachdem
der Signal/Rauschabstand mit der Bandbreite sinkt, wird so schnell
niemand auf die Idee kommen KB-Kameras mit 16-bit ADCs auszustatten,
schlicht weil die beiden unteren Bits nur Rauschen zeigen werden.

Würde man zB. eine Nikon D850 von 9(?) Bildern/s auf 1/4 der
Geschwindigkeit einbremsen, könnte man auch mit 16 bit ADCs
arbeiten, ganz so wie im digitalen Mittelformat.

Die Pixelgröße beim digitalen Mittelformat, ist wie beim Kleinbildsensor
auch, bei unter 5 um angekommen da gibt es keine Unterschiede mehr. Es
gibt keine magischen Mittelformat-Pixel.

Es ist die Gemächlichkeit der MF-Kameras die einem die beiden Bits
"schenkt". Die Frage ist, was in den beiden zuätzlichen Bits steckt.
Ist es nur noch das Streulicht des Kameragehäuses oder echte Bild-
information?
--
Helmut Faugel
Klaus Esser
2017-09-14 22:01:20 UTC
Permalink
Post by Helmut Faugel
Post by Klaus Esser
Interessant an dem Ganzen finde ich aber das Grundsätzliche: es scheint
eine elementare Weiterentwicklung zu sein, der sehr schnell auch andere folgen werden.
Es ist etwas worüber sich in der Fachliteratur schon viele den Kopf
zerbrochen haben, von Chemikern bei der Filmentwickung, Hersteller
von Strahlenteilern usw.
Ach wirklich . .
Post by Helmut Faugel
Und das war schon immer ein Ringen um den Kompromiss wie kriegt man
Farben sauber dargestellt ohne die Farben die zwischen rot, grün
und blau liegen ersaufen zu lassen.
Mal GANZ was Neues.
Post by Helmut Faugel
Post by Klaus Esser
Auch im KB-Bereich ist das spannend!
16bit/RAW ist bei MF eh ein sehr großer Vorteil - der mit KB bisher keine Entsprechung fand.
Die Sache ist schlicht die: die hohen Bildfrequenzen von Kleinbild-
kameras brauchen mehr Bandbreite der analogen Signalkette und nachdem
der Signal/Rauschabstand mit der Bandbreite sinkt, wird so schnell
niemand auf die Idee kommen KB-Kameras mit 16-bit ADCs auszustatten,
schlicht weil die beiden unteren Bits nur Rauschen zeigen werden.
Die Schnelligkeit dürfte nur für einen Teil aller Fotografen und Hobbyisten wirklich relevant sein.
Und dieser Teil kauft eher die WIRKLICH schnellen - und teuren - Modelle.

Viele würden eher von 16bit/RAW profitieren als von der Geschwindigkeit.
Post by Helmut Faugel
Würde man zB. eine Nikon D850 von 9(?) Bildern/s auf 1/4 der
Geschwindigkeit einbremsen, könnte man auch mit 16 bit ADCs
arbeiten, ganz so wie im digitalen Mittelformat.
Und - TUT "man" es? Nicht, daß ich wüßte.
Post by Helmut Faugel
Die Pixelgröße beim digitalen Mittelformat, ist wie beim Kleinbildsensor
auch, bei unter 5 um angekommen da gibt es keine Unterschiede mehr. Es
gibt keine magischen Mittelformat-Pixel.
Nein - aber eine "magische" Fläche. Das "Magische" dabei besteht in der
geringeren nötigen Skalierung des Outputs.

Wärest Du Fotograf wüßtest Du um deren Bedeutung für für Bearbeitungs-
und Druckfähigkeit besagten Outputs.
Post by Helmut Faugel
Es ist die Gemächlichkeit der MF-Kameras die einem die beiden Bits
"schenkt".
MF-Kameras können sich "Gemächlichkeit" leisten - niemand setzt sie für Sport- oder Actionfotos ein.
Und WENN, dann unter sehr kontrollierte Bedingungen, wo SAchnelligkeit ein sekundäres Problem darstellt.
Post by Helmut Faugel
Die Frage ist, was in den beiden zuätzlichen Bits steckt.
Ist es nur noch das Streulicht des Kameragehäuses oder echte Bild-
information?
Es sind sehr feine Abstufungen, sehr delikate Farb- und Tonwertverläufe - kurz: Headroom.
Aber wenn Du damit kommerziell arbeiten(!) würdest wüßtest Du´s. Darüber zu diskutieren ist für mich als Fotografen überflüssig.

Klaus
Jürgen Gerkens
2017-09-14 13:46:02 UTC
Permalink
Post by Helmut Faugel
Post by Klaus Esser
https://www.phaseone.com/
klingt SEHR interessant!
In der Wissenschaft nichts neues, aber was bringt
das wenn das bei der Wiedergabe, gerade beim Druck,
wieder vermatscht wird?
Steht da doch: Seppl raus filtern und fettich.

Ach Mist, das machen andere ja auch.
--
SCHÖNE GRÜẞE
JÜRGEN
Patrick Rudin
2017-09-14 14:52:22 UTC
Permalink
Post by Helmut Faugel
In der Wissenschaft nichts neues, aber was bringt
das wenn das bei der Wiedergabe, gerade beim Druck,
wieder vermatscht wird?
Kannst Du etwas zu konkreten Vorteilen und Nachteilen sagen, etwa punkto
Farbrauschen? Und wie ist das mit der Interpolation?


Gruss

Patrick
Klaus Esser
2017-09-14 15:10:30 UTC
Permalink
Post by Patrick Rudin
Post by Helmut Faugel
In der Wissenschaft nichts neues, aber was bringt
das wenn das bei der Wiedergabe, gerade beim Druck,
wieder vermatscht wird?
Kannst Du etwas zu konkreten Vorteilen und Nachteilen sagen, etwa punkto
Farbrauschen?
Bei 16bit/RAW-MF-Dateien muss man über Farbrauschen nicht groß reden.
Über Luminanzrauschen ebensowenig - solange man nicht so bescheuert ist, die ISO amateurmäßig hochzudrehen.

Ich hab bei dem Bild alle Rauschunterdrückung deaktiviert - und es sieht deutlich besser aus als mit.
Post by Patrick Rudin
Und wie ist das mit der Interpolation?
Komische Frage . . . Nimm halt den korrekten Konverter!

Klaus
Klaus Esser
2017-09-14 17:44:19 UTC
Permalink
Post by Klaus Esser
https://www.phaseone.com/
klingt SEHR interessant!
Mehr Details:

https://petapixel.com/2017/09/13/phase-ones-iq3-100mp-trichromatic-back-sees-color-like-human-eye/

Klaus
Johannes Leckebusch
2017-09-14 18:53:04 UTC
Permalink
Post by Klaus Esser
Post by Klaus Esser
https://www.phaseone.com/
klingt SEHR interessant!
https://petapixel.com/2017/09/13/phase-ones-iq3-100mp-trichromatic-back-sees-color-like-human-eye/
Tut mir leid, aber die Argumentation und die Diagramme sind absoluter
Quatsch. Mit solchen Filterkurven könnte man weder "sehen bzw. Farben
erkennen wie das menschliche Auge" noch überhaupt alle Farben richtig
erfassen.
--
Johannes Leckebusch - AR3

http://www.johannes-leckebusch.de/
http://www.johannes-leckebusch.de/Fotogalerien/index.html
http://www.foto.ungruen.de/index2.html
Klaus Esser
2017-09-14 18:56:32 UTC
Permalink
Post by Johannes Leckebusch
Post by Klaus Esser
Post by Klaus Esser
https://www.phaseone.com/
klingt SEHR interessant!
https://petapixel.com/2017/09/13/phase-ones-iq3-100mp-trichromatic-back-sees-color-like-human-eye/
Tut mir leid, aber die Argumentation und die Diagramme sind absoluter
Quatsch. Mit solchen Filterkurven könnte man weder "sehen bzw. Farben
erkennen wie das menschliche Auge" noch überhaupt alle Farben richtig
erfassen.
Schreib nen Beitrag in dem Blog!

Klaus
Klaus Esser
2017-09-14 19:02:08 UTC
Permalink
Am Donnerstag, 14. September 2017 20:49:31 UTC+2 schrieb Johannes
Post by Johannes Leckebusch
Post by Klaus Esser
https://petapixel.com/2017/09/13/phase-ones-iq3-100mp-trichromatic-back-sees-color-like-human-eye/
Tut mir leid, aber die Argumentation und die Diagramme sind absoluter
Quatsch. Mit solchen Filterkurven könnte man weder "sehen bzw. Farben
erkennen wie das menschliche Auge" noch überhaupt alle Farben richtig
erfassen.
Schreib nen Beitrag in dem Blog!
NATÜRLICH ist es Humbug, humanoides Sehen mit Sensoren zu vergleichen.
Sag ich ja immer.

Aber irgendwie wollen sie´s vielleicht spektatkulär wie möglich rüberbringen -
und da kommt es immer gut, menschliches Sehen als Referenz heranzuziehen :-)))

Marketing halt.

Nichtsdestotrotz ein interessanter Ansatz! Egal, wie man es nennt.

Klaus
Johannes Leckebusch
2017-09-14 19:27:37 UTC
Permalink
Post by Klaus Esser
Am Donnerstag, 14. September 2017 20:49:31 UTC+2 schrieb Johannes
Post by Johannes Leckebusch
Post by Klaus Esser
https://petapixel.com/2017/09/13/phase-ones-iq3-100mp-trichromatic-back-sees-color-like-human-eye/
Tut mir leid, aber die Argumentation und die Diagramme sind absoluter
Quatsch. Mit solchen Filterkurven könnte man weder "sehen bzw. Farben
erkennen wie das menschliche Auge" noch überhaupt alle Farben richtig
erfassen.
Schreib nen Beitrag in dem Blog!
NATÜRLICH ist es Humbug, humanoides Sehen mit Sensoren zu vergleichen.
Sag ich ja immer.
Aber irgendwie wollen sie´s vielleicht spektatkulär wie möglich rüberbringen -
und da kommt es immer gut, menschliches Sehen als Referenz heranzuziehen :-)))
Marketing halt.
Nichtsdestotrotz ein interessanter Ansatz! Egal, wie man es nennt.
Nein, diese Abbildungen sind offensichtliche Erfindungen von Leuten, die
von der Materie keine Ahnung haben. Damit funktioniert Farbfotografie
nicht, bzw. würde zu höchst lächerlichen Resultaten führen.

Mein etwas angejahrter Artikel zum Thema Farbensehen ist hier:

http://www.johannes-leckebusch.de/Farben/index.html
--
Johannes Leckebusch - AR3

http://www.johannes-leckebusch.de/
http://www.johannes-leckebusch.de/Fotogalerien/index.html
http://www.foto.ungruen.de/index2.html
Johannes Leckebusch
2017-09-14 19:39:13 UTC
Permalink
Post by Klaus Esser
Am Donnerstag, 14. September 2017 20:49:31 UTC+2 schrieb Johannes
Post by Johannes Leckebusch
Post by Klaus Esser
https://petapixel.com/2017/09/13/phase-ones-iq3-100mp-trichromatic-back-sees-color-like-human-eye/
Tut mir leid, aber die Argumentation und die Diagramme sind absoluter
Quatsch. Mit solchen Filterkurven könnte man weder "sehen bzw. Farben
erkennen wie das menschliche Auge" noch überhaupt alle Farben richtig
erfassen.
Schreib nen Beitrag in dem Blog!
NATÜRLICH ist es Humbug, humanoides Sehen mit Sensoren zu vergleichen.
Sag ich ja immer.
Aber irgendwie wollen sie´s vielleicht spektatkulär wie möglich rüberbringen -
und da kommt es immer gut, menschliches Sehen als Referenz heranzuziehen :-)))
Marketing halt.
Nichtsdestotrotz ein interessanter Ansatz! Egal, wie man es nennt.
Nein, diese Abbildungen sind offensichtliche Erfindungen von Leuten, die
von der Materie keine Ahnung haben. Damit funktioniert Farbfotografie
nicht, bzw. würde zu höchst lächerlichen Resultaten führen.

Mein etwas angejahrter Artikel zum Thema Farbensehen ist hier:

http://www.johannes-leckebusch.de/Farben/index.html

Siehe speziell beim lokalen Link "Spektren".
--
Johannes Leckebusch - AR3

http://www.johannes-leckebusch.de/
http://www.johannes-leckebusch.de/Fotogalerien/index.html
http://www.foto.ungruen.de/index2.html
Johannes Leckebusch
2017-09-14 19:06:48 UTC
Permalink
Post by Klaus Esser
Post by Johannes Leckebusch
Post by Klaus Esser
Post by Klaus Esser
https://www.phaseone.com/
klingt SEHR interessant!
https://petapixel.com/2017/09/13/phase-ones-iq3-100mp-trichromatic-back-sees-color-like-human-eye/
Tut mir leid, aber die Argumentation und die Diagramme sind absoluter
Quatsch. Mit solchen Filterkurven könnte man weder "sehen bzw. Farben
erkennen wie das menschliche Auge" noch überhaupt alle Farben richtig
erfassen.
Schreib nen Beitrag in dem Blog!
Da steht ja eh schon einiges dazu drin.
--
Johannes Leckebusch - AR3

http://www.johannes-leckebusch.de/
http://www.johannes-leckebusch.de/Fotogalerien/index.html
http://www.foto.ungruen.de/index2.html
Hendrik Brixius
2017-10-25 17:25:35 UTC
Permalink
Post by Klaus Esser
https://www.phaseone.com/
klingt SEHR interessant!
Ich war inzwischen bei einem Vortrag der sich mit dem Trichromatischen
100mpx-Sensor von Sony, der nach den Wünschen von PhaseOne gebaut wurde,
beschäftigte. Neben den reineren Farben ist auch das Farb-Rauschen beim
Aufhellen geringer. Ein Nachteil ist die etwas geringere Empfindlichkeit.

Schoene Gruesse,

Hendrik
--
http://www.swingbiker.de/
http://www.spezialaufnahmen.de/
Johannes Leckebusch
2017-10-25 17:32:50 UTC
Permalink
Post by Hendrik Brixius
Post by Klaus Esser
https://www.phaseone.com/
klingt SEHR interessant!
Ich war inzwischen bei einem Vortrag der sich mit dem Trichromatischen
100mpx-Sensor von Sony, der nach den Wünschen von PhaseOne gebaut wurde,
beschäftigte. Neben den reineren Farben ist auch das Farb-Rauschen beim
Aufhellen geringer. Ein Nachteil ist die etwas geringere Empfindlichkeit.
Haben sie da denn weniger absurde angebliche Empfindlichkeitskurven gezeigt?
--
Johannes Leckebusch - AR3

http://www.johannes-leckebusch.de/
http://www.johannes-leckebusch.de/Fotogalerien/index.html
http://www.foto.ungruen.de/index2.html
Jens Look
2017-10-25 19:47:33 UTC
Permalink
Post by Hendrik Brixius
Ein Nachteil ist die etwas geringere Empfindlichkeit.
Je nachdem.
Bei den Produkfotos habe ich oft das Problem mit zu viel Licht da die
Profoto D4 in der 2400Ws Version sich nur auf 19Ws herunter regeln
lassen.
Das kann schnell zu viel sein wenn etwas härteres Licht aus kurzer
Entfehrnung setzen will.
Ich habe andere die bis auf 1Ws herunter gehen aber für mich ist da
bei den Produktfotos das eher von Vorteil mit den 35 ISO.

Hatten sie bei dem Vortrag eine da?

Jens

Loading...