前回、三角測量の原理を紹介しました。この原理を使って三次元形状を測定する一番シンプルな方法は、レーザースポットを物体に当て、そのスポットを二つの地点から観測する方法です。左右のいずれの地点からも際立って明るい点が一つだけ観測されます。それらがレーザースポットの当たっている三次元物体上の点に対応するわけです。したがって、その点がどのような角度方向にあるかを測定すれば、レーザースポットの位置が三次元的に定まりますから、レーザースポットを順次移動させつつ、同じ計測を繰り返せば、三次元の形状が測定できることになります。
我々は左右それぞれの目で外界(三次元空間)を二次元の画像として観測しています。視野内にある三次元物体上の全ての点が網膜上に映し出されていることになります(陰になって見えない部分は除きます)。したがって、右目画像上のある点が左目画像の何処に対応するのかが分かれば、三角測量の原理が使えることになります。しかし、右目画像上の一つの点が左目画像上のどこに対応するのかを決めるのは簡単ではありません。明るさは一般的には観測方向によって変化しますし、明るさが同じところは至る所に有るのが一般的です。レーザースポットでないかぎり、明るさだけでは対応点は決められない、ということです。色についても同様です。では、どのようにして立体感を得ているのでしょうか?
工学的な方法をお話しましょう。一例として応接室のソファーの写真とその中の肘掛のコーナー部分を拡大したものを示しました。拡大した部分は13×13画素の小さな四角形の集まりになっていますが、一つの四角形がディジタル画像の一つの点にあたります。左右の画像上では、同じ点ではあっても、明るさや色合いは微妙に異なり、一点ずつ対応させるのは困難です。しかし、ある程度の面積を持つ小領域(拡大して示した画像程度)で考えると、そこでの絶対的な明るさは別にして、明暗の変化パターンは左右で非常に良く似ていることが分かります。つまりは、一つの点だけでは対応するところを決めるのは困難ですが、ある程度の広さを持つ領域での明暗の変化パターンであれば、似ているところが対応する領域になる、といえそうです。右画像を少領域に分割し、それと似た明暗パターンを持つ領域を左画像上で探していくことを繰り返せば、視野全体の三次元情報が得られるという理屈です。これは、ロボットビジョンで利用される最も基本的でかつ初歩的な手法です。ここでは触れませんが、より高度で複雑な方法も開発されています。
我々は左右の網膜上の画像を比較し、対応点を探し出し、それに基づいて三次元座標を決める、というような計算を頭の中でしているのでしょうか?少なくともその自覚はありませんよね。でも、全く意識もせず、ごく自然に当たり前のように三次元の世界を認識しています。これはとても不思議なことなのです。どのようなことをしているのかな、などと考えてみたことも無いかも知れません。しかし、脳の中で処理の中身は分からないけれども複雑な処理をしていることは間違いありません。高度な仕組みがそこに在りそうだなと思いませんか?