現状のカラー化プロセス
まず現状のカラー画像化のプロセスを順に見ていきながら、その問題点を探っていきましょう。
フィルターを切り替えてRGB画像を撮影する場合、そのフィルターの透過特性や、CCDカメラの波長(色)感度が違うために、同じ露出時間を与えても、同じ明るさの画像にはなりません。例えば、白い対象を撮影した場合、RGBそれぞれのピクセル値は等しくなるはずですが、実際に各RGB画像のピクセル値を見てみると、同じ値にはなっていません。これを補正する係数が「露出倍数」です。この露出倍数を決めることもとても難しいのですが、とりあえず正確な値が得られたとして話を進めます。
露出倍数で示された補正を行うために、実作業としては、露出時間や絞り、感度を調整します。冷却CCDによる望遠鏡直焦点撮影の場合には、絞りや感度は変えられないので、露出時間を変化させます。たとえばグリーンフィルターの露出倍数が1で、ブルーフィルターの露出倍数が2だった場合、グリーンフィルターでの露出時間が5分なら、ブルーフィルターは10分の露出時間を与える必要があるということになります。
しかし露出時間を変えて露出倍数に対応する場合、それに応じたダーク画像も用意する必要があります。また、露出倍数は整数とは限りませんから、半端な秒数での撮影(9分35秒とか)になったりとあまり良い方法ではないかもしれません。ですので、同じ露出時間で撮影しておいて、画像処理でブルー画像のヒストグラムを2倍に引き伸ばす(ストレッチ)という方法もあります。しかし、このストレッチ法で良いかといえば、ここにも問題があります。本来ブルーは10分の露出が必要なのに5分しか露出していないのですから、暗部が見えなくなったり、もし運良く写っていてもS/Nはかなり劣化してしまいます。逆にグリーン画像をブルーと同じ露出10分にして1/2にストレッチするという方法もありますね。現状大多数の人は、このように露出時間とストレッチを組み合わせて撮影と画像処理を行っていると思いますが、いずれにせよ、はじめは試行錯誤が必要な部分になります。
以上のような方法で補正を行い、カラー画像化してみると、たいていはバックグラウンドはグレーにならず色がついてしまいます。RGB各チャンネルのバックグラウンドの明るさがわずかでも違うとそれは色となって表れてしまうのです。均一の色であればまだ良い方で、実際にはさまざまな要因で背景にムラができることが多いのではないでしょうか。光害や露出中の薄雲の通過、フィルター上のゴミなどさまざまな原因によってムラができます。これらは本来フラット処理で取り除かれるべきものですが、これがなかなか一筋縄ではいきません。完璧なフラット補正はなかなか難しく、今回のカラーバランスの問題と並んで、天体写真にとって永遠の課題ではないでしょうか。
バックグラウンドの色を消すために、みなさんさまざまな方法で対処していると思います。より正確なフラット補正をめざす、バックグラウンド補正を行ってくれるいろいろなソフトを使う、などの方法もありますが、結局最後はレベル補正やトーンカーブなどで調整を行っているのではないでしょうか。バックグラウンドが同じ値になるように、RGBチャンネル別にオフセットをかける、ストレッチして幅を変える、ガンマを変えてみる、などなど。しかしこれらの操作はちょっと間違えると露出倍数を変えてしまうことにもなり、カラーバランスとのいたちごっこが始まります。
そして何時間か格闘すると、何となく納得する色に辿り着くのですが、はたしてそれが本当に正しい色なの? という状態になってしまうのです。デジタル画像処理はその調整の自由度がとても大きく「この星雲の明部は黄色で、暗部は赤にしよう」と思ったら、それができてしまいます。ここがやっかいなところで、気がつくとぐにゃぐにゃなトーンカーブになっていることも……。このような極端な補正は避けた方が賢明ですね。
さてみなさん、この問題の一番良い解決方法を知っていますか? これはとても簡単なことなんです。表示レンジを広げればOK。そうすることによってさっきまで見えていた色ムラは暗くなって見えなくなります。なんだオートストレッチなんていらないって結論?
星雲などの暗部は見えなくなりますが、スッキリして星は輝きを取り戻し、キレイな画像になると思います。……そうなのです、この時の状態が、撮影した画像が持つ本来のポテンシャルなのです。それを無理して暗部まで出そうとするから、さまざまな問題が起こるわけです。闇雲に暗い星雲を出そうとしたり、より高い解像度を求めることには必ずマイナス面があるわけで、無理しないという選択肢があることは知っておく必要があると思います。僕は、画像処理にとって一番大切なことはこの「正しい見切り」ができるかどうかではないかと密かに思っていたりします。