先日来、色々と実験しているイーブンオッド法なのですが、ここで問題点をまとめておきましょう。
<比較明コンポジット法では>
明るい星はつながりますが、暗い星に「黒い切れ目」ができます。
<イーブンオッド法では>
暗い星はつながりますが、明るい星に「白い切れ目」ができます。
まとめると
「イーブンオッド法の弱点は」
①比較明コンポジット一発にくらべてS/N比が1/2に低下する
(バックグラウンドが明るくなる)
②比較明で問題となる暗めの星はうまくつながるが
逆に明るい星でつなぎ目が「明るく」なりすぎる。
①については、比較明の1/2の露出にとどめ
イーブン群とオッド群の合成を行う際に
加算平均ではなく、加算を選べば回避できるのですが
②については、頭を抱えてしまう問題で
正直、納得がいきません。
★犯人は誰だ?
詳しい考察&実験に入る前に
考えられる原因を列挙してみましょう。
①そもそもイーブンオッド法などという手法が幻想
②レンズ光学系上の問題(レンズの収差)
③撮像素子上の問題(ベイヤー素子の特性)
④カメラ光学系上の問題(ローパスフィルタの特性)
⑤カメラ内ソフト上の問題(RAWデータ生成プロセスの特性)
⑥現像ソフト上の問題(ベイヤーデモザイク処理の特性)
本当は、③④⑤の検証のため
A:ローパスフィルタを取り除いたデジタル一眼で実験
B:天体用冷却カラーCCDで実験
C:天体用モノクロCCDで実験
をやろうと意気込んでいたのですが、どうも天候が回復しません。
(本業の関係で、撮影は週に1回が限界です。)
★できることからやってみよう♪
しかたがないので、⑥から検証してみることにします。
実は、先日の考察で、強引な仮定がありました。
<撮像素子は>「モノクロ」のラインセンサーで
<ローパスフィルタで>2×2もしくは3×3に拡散
明るさを想定する上で必要な事とはいえ、むちゃくちゃですね(笑)
もしも、ここできちんとベイヤー型のセンサを仮定するとどうなるでしょうか?
ちと考えてみましょう。
デジカメ内の撮像素子は(シグマのFOVEONなど特殊な例をのぞき)
およそ下記のようなベイヤー配列をしています。
もし、理想的な超高性能レンズを用いて撮影した白色の恒星像が下記のように、1ピクセルに収まってしまうと
センサーのGだけが感光したことになり、本来白色であるはずの星が緑に写ってしまいます。
(これが、いわゆる偽色とかモアレの主要因です。)
そこで、ほとんどのデジカメは(ごく最近の機種を除き)複屈折現象などを利用したローパスフィルタが2枚装着されていて、たとえば、1枚目で像を上下に『分身』させて、さらに2枚目で像を左右に『分身』させることで、結局下記のように
1つの像を4つの素子で共有できるように分散させます。
これにより、偽色やモアレが出るのを防止しているというわけですね。
(※最近のデジカメでローパスレスが流行っているのは、撮像素子の高画素化にくらべ、撮影レンズの解像度が低いため、レンズによるボケがローパスフィルタの代わりになっているからだと思われます。)
さて、問題は、上記のようなベイヤー型センサーから実際の画像データを生成するために何が行われているかです。
本来ならば、上記のGRBGの4画素で1ピクセル分のデータとなりますので、たとえば、ベイヤー素子1200万画素のデジカメなら300万ピクセルのデータを吐き出すはずなのですが、実際には、「補完処理」によってデータを水増しして画素数と同等のピクセル数データが出力されています。この処理を、ベイヤーデータの「デモザイク」と呼びます。
ベイヤーのデモザイク処理にはいろいろな手法が考えられるのですが、一例として(素人の)私が考えるなら、
上記のように①(赤のエリア)→②(青のエリア)→③(緑のエリア)→④(紫のエリア)
という具合にデータを読み出して、RGB合成して、9画素から4ピクセルの画像を得る、などということを一番に考えます。(この手法なら、たとえば、4000×3000の1200万画素データから理論上、1200万-4000-3000+1=1199万3001ピクセルのデータが手に入る計算になります。
また、人間の目は輝度差には敏感でも色の差には鈍感であるという性質を利用して、もっと大胆に画像を補完する方法も考えられます。
たとえば
こんなベイヤー配列を
こんな3つのマトリックスにわけて、それぞれのマトリックスの隙間(白いセル)を
RとBなら対角上の4つのセルの平均値を真ん中に埋めてからGと同じ処理をする
など、です。
素人なりの勝手な予想なのですが、おそらく、上記のようなプロセスをさらに洗練させたバイリニア方式やバイキュービック方式で画素補完しているのではないかと想像します。(※注:あくまで素人なので、勝手な妄想です。)
--------------
・・・・書いてて、ちと疲れてきましたが、なんかこういうお話って、大昔に、宇宙線使って天体の『撮影めいた』ことをしているときに、「レゾリューションをもっと上げろ!!」って教授に言われて、泣きながら色んな『怪しい処理』を考えていた頃を思い出しますね(笑)。ま、たった40個あまりの撮像素子(フォトマル)使って全天を『撮像』して、最終的には0.5~1度位の解像度を得ていたんですから、研究の執念ってたいしたもんですねえ。懐かしい。
・・・最近の学生も、こんなことで悩んだりしてるのかなあ?
--------------
さて、気を取り直して行きましょう♪
そうすると、今回の仮定で理論的には下記のように感光すると考察した恒星像は
実際には
このように感光していることになり
さらに補完処理が行われると
こんな感じのデータになってしまうので
本来、
このように写るはずの恒星像は
こんなRチャンネル像と
こんなBチャンネル像を合成した
こんな嫌な画像になってしまうことになります。
・・・・・肥大してるわ、偽色まみれだわ、どうしようもない画像です。要するに、固定撮影による恒星像撮影の場合、恒星像が刻一刻と色んな色の素子を渡り歩いている上に、恒星像の先端通過時と末端通過時には不十分な露光となるために、一般的な写真では起こらないはずの色ズレが起こってしかるべきなのではないでしょうか?
えっ?ひょっとして、本来暗い星を写したとき、ベイヤーでは偽色は回避できないものなの??
いやいや、機種によっては、うまく偽色が出ないように処理してくれているし・・・・・
処理して・・・・・・あ!
「そもそも、デモザイク処理が原因なのではないか?」
★ともかく、論より証拠
というわけで、ベイヤーデータをデモザイクする前のRAWデータを用いて、ベイヤーデータのまま「イーブンオッド法」をやってみました。
上記のように、RAWデータを現像しJPEGにしてから「イーブンオッド法」に持ち込まず、RAWデータをベイヤーのまま「イーブンオッド法」の最終処理まで演算し、最後にデモザイクすると、次のようになりました。
おおっ♪
明るい星も暗い星も、切れ目が消えたっ!
あ・・・でも偽色まみれですね。
でも、これは、先ほどの考察で想定済み。
こんなときは・・・・・
ベイヤーデータを「イーブンオッド」した画像をL画像にし、
JPEGデータを「イーブンオッド」した画像をRGB画像にし
LRGB合成すればっ!
おおっ♪
偽色も消えました!
「満濃池と東天の日周運動」
ニコンD300+シグマ10-20mmF4.5-5.6
焦点距離10mmF5.6
露出30秒×100コマを「イーブンオッドコンポジット」
撮影:あぷらなーと
★今後の課題
①ベイヤー処理のままだと途中にキャプチャーNX2を挟まないのでアストロノイズリダクションが使えない
別処理を考えないと・・・。
②LRGB合成の前だとあまりにもすさまじい偽色が出る。
色んな意味で、これ、大丈夫か?
③星の色が出にくいような気がする・・・。
④現像後のデータと異なりアンチエイリアシングされてないので、
なんか、光跡データがガクガクして見える。
⑤ステライメージのデモザイク処理は、処理後もベイヤー構造っぽい格子が見える。
(私の勉強不足??)
-------------
注)あくまで「素人」の考察です。
特にカメラ内での処理・現像ソフトの動作などは「妄想」のレベルです。
BYあぷらなーと☆
星景 加算平均で11時から、あちこち見てこちらにたどり着きました!
素晴らしい考察ですね。悩んでいたことがスッキリしました。
感動ものです本当に。最近撮った蛍の軌跡のノイズ処理にも試してみたいと思います。ありがとうございます。
わたくしパティシエで明日早朝出勤なのであらためてお邪魔いたします。いい教科書になります!ありがとうございました。
ご訪問、ありがとうございます♪
当方、素人なので、考察には「妄想」が混じっていますので
話半分にとらえてくださいね。
蛍の撮影も、比較明コンポジット法の利用で
色々と、工夫できるようになりましたね。
ぜひ素敵な写真をお撮りになってください。
今後は天体写真以外にも色々アップしていくつもりなので
お暇なときにお立ち寄りくださいませ♪
by あぷらなーと