







その内容を要約すると、
感度はほぼ受光素子の有効面積で決まり、ダイナミックレンジはフルウェルキャパシティで決まる。
と、いうもの。(あくまで私の理解)
私もその通りだと思っているのですが、以前からダイナミックレンジに関して文系の頭で色々考えていると変な疑問がたくさん湧いてくるんです。
今回の「解析ごっこ」ですが、なんかその疑問を解決するヒントみたいなものが出てきそうな予感をヒシヒシと感じている。
少しでも疑問が解決できればいいなぁ。と思ってる次第。
前回の内容の「輝度の単位と光電子数」の違いがうまく理解できない。><
輝度の単位は光電子数と対数の関係だということであってます?
※難しいようであれば説明不要です。すでにある多くの疑問の中にしまっておき、何かのきっかけで解決できればと。
いやーエンディアン変換とかは、あくまでソフト面なので、やはりハード面には弱いんですよぉ。なにしろ学生時代は『解析屋』さんだったもので・・・。
といっても現在はソフトも強くないんだけれど・・・・。
確かに、ASCOM経由で、冷却CCDソフトで撮像すると、ヒストグラムが歯抜けになっていて、こりゃー、12bit→16bitに伸長してるなーと思ったことはありましたが、
SharpCapだと、逆に、12bitに落とし込んでいる訳ですか・・・(◎-◎;)!!
それでも、32bit実数で保存する場合には何の問題もないのでしょうが・・
マジモンの冷却CMOSは持ってないのですが、CMOSカメラは、ダーク減算に苦労しています。
ダーク撮影時の方が、ベースカウントが上がっていて撮影データを侵食するというかスポイルすることがあるみたいで・・・(要するにダーク減算するとマイナスになるので0に置き換えられちゃう・・・コンポジットー減算ならOkなのかも・・)
まぁ、これは、ダーク取得の環境が悪いかもです(明るくなりはじめてから撮ってるので外気温と漏光が無いとは言えない)
CMOSはBIASに当たる設定も、OFFSETでユーザ委任だし、いろいろとホント、難しい・・・と思ってます。
冷却CCDのセオリーは通じない。あぷらなーとさんの様なしっかりとした解析が必要だと痛感しています・・。
ごめんなさい。ちとマニアックな会話が飛び交ってます(笑)
ちなみに「FITSファイル」とは天文のプロが規定した画像ファイル形式の一種で、冷却CMOSカメラや天文画像処理ソフトが吐き出すのはこの形式です。
エンディアン変換は、文化の異なるコンピュータ間でデータをやり取りするときに生じる「読み書きの際の奇妙なルール」です。雰囲気としては「左から読む英語と右から読むアラビア語」の混乱を回避するルールみたいなものです。
そうですね。最近、どのチップも量子効率が高くなっていますので、「感度」は概ね1画素あたりの面積で決まっちゃいますね。また、ダイナミックレンジは「最大何個の電子を数えられるか」を表すフルウェルキャパシティと最も関連性が高いのも事実です。
ただし、現実にはゲイン(光電子1個を何個の電子に変換して出力するか)を変えたりすると「どれだけの幅の明るさ」を捉えられるのかという意味のダイナミックレンジは異なってきますし、ノイズが増えてくるとノイズ起因の電子がダイナミックレンジを喰ってしまいます。
なお、輝度の単位を光電子(あくまで初動で発生する増幅前の光電子)で表すのは、ゲインによる増幅の影響を排除して公平な比較ができるようにするためです。これによりノイズの評価なら「星の光から生じた1個の光電子に対してどれだけのノイズが邪魔するのか」が評価できます。なお光電子1個から電子1個を出力する「ユニティゲイン」で撮影した場合は「輝度」=「光電子数」になりますので、先述の変換は、「ユニティゲインの時にどんな明るさになるか」を表しているという解釈も成り立ちますね。
※現実にはもっと複雑なので、上記のお話はあくまでイメージです。
少々語弊があったようなので補足です。
自前のコードで解析している元ファイルも「SharpCapで撮像した画像」なので、SharpCapが12bitに丸めた画像を出力しているわけではありません。
あくまで撮影時に付録としてSharpCapが勝手に吐き出してくれる「輝度分布ファイル」の輝度が12bitに圧縮されているという主旨です。実際の画像は16bitに拡張しているのに輝度分布データが12bitに圧縮されているので、これを把握しておかないとノイズの評価値が16倍もズレてしまう恐れがあり、四苦八苦してたんです。
分かりづらくてごめんなさい。

>※現実にはもっと複雑なので、上記のお話はあくまでイメージです。
もちろんわかってます。色んな要素が複雑にからみあってるのでしょうから。
>現実にはゲイン(光電子1個を何個の電子に変換して出力するか)~
というのは、すべての数が等倍でゲインされ頭打ちしないのであれば、対数(dbなど)で表せば同じですよね?
最大/最小は同じだと。
自分の疑問の根源は、多分もっとシンプルで(なさけないことに自分の疑問が自分でもよくわかってない)、
たとえば音の場合、記録できる最小の音と最大の音の幅がダイナミックレンジ(そう捉えている)で、かつ再生側の制限がなければ再生も(アンプによる)ゲインにかかわらず最小と最大の幅は対数的に保たれる。と考えている。
が、写真や映像の最終出力(再生側)の最大ってぶっちゃけていうと「白」だと思っていて、フルウェルが10000e-でも65000e-でもAD後にフルビット立った時の出力は同じなんではないかと。(ここが間違い?)
感度(最初の1e-ができる条件)が同じなら表現できる幅も同じになり、異なるフルフェルのギャップは諧調に反映されるだけではないかと思ってるんですよね。
この辺がず~っとモヤモヤ~っと・・・
なるほどそういう意味合いでしたか。これなかなかに難問だと思います。基本的には高ゲインにした場合には、ある一定輝度以上が全てカットされた結果階調が乏しくなると思うんですが、実際には意外に差異が無かったりして謎が深まります。とにかく『理屈的にはこうなるハズ』というのがなかなか通用しないので難儀しますね。
のんびりと解き明かすつもりなので、あまり期待せずにお待ちください。

だからこういった疑問を積極的に解決しようと思っているわけでなく、色んな情報(たとえば、あぷらなーとさんのサイト)から理解の点が線になって面になって行き、その中で疑問が解決していくのが面白んです。
※ レスポンスは不要です。