気になったので、ちょっと調べてみました。
RAWの形式については、各メーカのノウハウなので単純には言えないのですが、
ノイズに関して、圧縮の効果があるのかもしれません。
あと、LightRoomで、オリンパスのRAW画像が、スライダーに対して敏感に反応するのも12bitと14bitの差かもしれませね。PanasonicのGH5Sの製品説明に12bitと14bitでは4倍(2の階乗だから)の諧調の違いがあると書かれていました。
ダイナミックレンジって
ちょっと、ネットで見てみていい加減な話で申し訳ないですが
1)日常光のダイナミックレンジ(幅):140dB
2)デジカメが取得できるダイナミックレンジ(幅):70dB
3)中間(データ)ファイル(RAW、JPEG):(?)
4)出力のダイナミックレンジ:写真で25dB、モニタで40dB
ぐらいの幅があって、単位はデシベルなので対数表記で、
140dBと70dBの差は2倍ではなくて3700倍ぐらい違うそうな。
モニタで見た場合、デジカメの幅の70dB範囲の中の一部40dBの切り取りを調整することが
できるみたい...多分。大雑把に言えば現像処理をすることで、明るい方の40dBを切り取るかくらい方の40dBを切り取るか調整できるということですね。
問題は、デジタルデータなので、3)の中間ファイル(データ)の信号の表現諧調で、
詳細はわからないのですが、どんぶり勘定で、信号の幅を
12bitであれば、2^12=4096 4096等分
14bitであれば、2^14=16384 16384等分(12bitの4倍)
で、表現するので、bit数が増えると滑らかにデータを表現できて、bit数が減ると荒くなる
見たいです。
本当、詳細わからないのだけど、イメージセンサのデータをそのまま全部出そうとすると
データ量が多すぎるため、データを空間的?(多分)に圧縮するようで、圧縮の方法は、メーカごとにルールがあり、RAWデータの現像は、メーカのノウハウがあるので、メーカの現像ソフトで行うのが良いのが通説の様です。
データを拡大してみてみると...
RAWで撮ったデータを拡大してみてみると、どうも不規則なノイズというよりも特定のパターンのようなものがあるように見えますが、たぶん、これはRAW圧縮のパターンなのかもしれません。
単純に同じものを撮ったものではないので比較という意味も薄いのですが...
α7RⅣとα9Ⅱは、画素数の違い
EOS Kiss M。コンシューマ機で14bitって、ある意味すごくて、たぶん圧縮のアルゴリズム
のパターンが、キャノン独自のすっきりしたクリアな印象(と、私は思っている)に見えます。
拡大してみると、SONYのRX100MⅦもよく似ている...(と、私は思う)
オリンパスは、11bitで、元画像が暗めの写真でもあるので、なんですが、諧調が低い分、ノイズのコントラストが強く見えます。
私のようなアマチュアの場合、現場での光のコントロールをしないので、LightRoomで、後で調整するのですが、どうも来ちゃなくなってしまう。(TT)
ダイナミックレンジや圧縮技術のところは、メーカからの情報も乏しいので何とも言えないですが、ここら辺で、われわれユーザサイドがもやもやしますね。
無責任な仮説ですが、実は、イメージセンサの表現能力は、潜在的にあって、そのあとのデータにするための量子化(デジタル化)の部分で、データの転送速度やデータの容量の制限で、苦しんでいるのかもしれませんね。
そういう意味では、イメージプロセッサの革新なのか、ストレージ、PCなどの周辺機器の革新が必要なのかもしれませんね。
α7RⅣの説明のところに、”16bitでセンサ信号処理して、14bitのRAWにする”とあるので、間引き(多分圧縮)しないで16bitでそのまま出力されるとどんな世界があるんだろうかと、気になるところではあります。(以外に...失望するかも(笑))
ただ、オリンパスレンズの質感は好きなので、
12bitでなくて、14bitで見てみたいなぁ~(^^)
0コメント