【連載】

機械の目が見たセカイ -コンピュータビジョンがつくるミライ

39 ハードウェアの基礎知識(3) - レンズ

39/44

今回もハード寄りの話です。前回は撮像素子のシャッターの方式についてでした。今回は、光学的に光を集光するレンズについて書きたいと思います。レンズを購入する際に、焦点距離、F値、MTFという数値をチェックしてますか? 今回はレンズの仕様・性能を表すこれらの数値について概要をご紹介します。

焦点距離とは?

一般的なカメラは図1の通りピンホールモデルとして扱うことができます。入射光はレンズの焦点を通り、撮像素子で受光します。撮像素子から焦点までの距離が焦点距離です。

図1 ピンホールモデルの焦点距離と撮像位置の関係

焦点距離が短くなると図2のように、図1の焦点距離が長い場合と比較して、広い範囲の光を受光することができます。つまり、遠くをズームインして撮影したい場合は、焦点距離の長いレンズを、広い範囲をズームアウトして撮りたい場合は、短焦点レンズを選ぶ必要があります。

図2 単焦点レンズ

F値とは?

F値(F-number)という単語を聞いたことはありますか? 一眼レフなどのレンズ交換式カメラのレンズにはほぼ必ず記載されている値で、レンズの明るさを表します。F値は、レンズの焦点距離を有効口径で割った値で、値が小さいほど明るいレンズとなります。

F値の2乗に反比例して入射光量は少なくなります。具体的には、F値が2のレンズ「1/(22)=1/4」に比べ、F値が2.8のレンズ「1/(2.82)≒1/8」は入射光が半分になります。暗い環境下でなるべくノイズの少ない画像を取りたい場合は、F値が小さく明るいレンズを選びましょう。

また、F値の小さい明るいレンズの方が被写界深度(ピントの合う奥行き幅)が浅く、背景のぼけた画像になります。背景をぼかしたい場合は、F値の小さいレンズ、ぼかしたくない場合はF値の大きいレンズ(または絞りを調整)が良いでしょう。

MTFとは?

MTF(Modulation Transfer Function)は、レンズの解像度の性能を評価するための指標です。被写体の持つコントラストをどの程度忠実に再現できるかを空間周波数特性として数値化したものです。

MTFの測定には図3のように白と黒が周期的にsinカーブ状に変化する正弦波チャートを用います。被写体のテクスチャ(チャートの白黒パターン)は、レンズを通して撮像するとコントラストが低下してしまいます。このコントラストの低下の度合いを表す数値がMTFです。空間周波数が低い(白黒パターンが太い)場合は大きな問題となり難いのですが、空間周波数が高い(白黒バターンが細い)場合は、MTFの高いレンズを用いないとコントラストの高い画像は撮れません。テクスチャの細かさによっては、MTFの低いレンズを使うと白黒パターンが完全に潰れてしまい輝度変化のないグレーとして撮像されてしまいます。

図3 レンズ解像度による撮像画像の差異

レンズを選ぶ際は、焦点距離、F値、MTFを確認するようにしましょう。撮影したい視野角、被写体の距離と認識に必要な画素数から焦点距離を決めましょう。F値は、夜間画像のノイズの少なさをどの程度優先するか、近くの物体のみに焦点を合わせて背景をぼかしたいかなどから決めると良いと思います。ただし、ある距離以上は無限遠までピントが合うので近距離を撮影対象にしない場合は被写界深度によるボケはあまり気にしなくても良いでしょう。また、細かいテクスチャを撮影したい場合、高解像度の撮像素子を用いる場合はMTFの高いレンズを選びましょう。

著者プロフィール

樋口未来(ひぐち・みらい)
日立製作所 日立研究所に入社後、自動車向けステレオカメラ、監視カメラの研究開発に従事。2011年から1年間、米国カーネギーメロン大学にて客員研究員としてカメラキャリブレーション技術の研究に携わる。

日立製作所を退職後、2016年6月にグローバルウォーカーズ株式会社を設立し、CTOとして画像/映像コンテンツ×テクノロジーをテーマにコンピュータビジョン、機械学習の研究開発に従事している。また、東京大学大学院博士課程に在学し、一人称視点映像(First-person vision, Egocentric vision)の解析に関する研究を行っている。具体的には、頭部に装着したカメラで撮影した一人称視点映像を用いて、人と人のインタラクション時の非言語コミュニケーション(うなずき等)を観測し、機械学習の枠組みでカメラ装着者がどのような人物かを推定する技術の研究に取り組んでいる。

専門:コンピュータビジョン、機械学習

39/44

インデックス

連載目次
第44回 ディープラーニングの基礎(3) - 回帰・2クラス分類・多クラス分類の出力層
第43回 ディープラーニングの基礎(2) - 活性化関数
第42回 ディープラーニングの基礎(1) - ニューラルネットワークとは
第41回 領域分割(4) – CNNによるSemantic Image Segmentation
第40回 ハードウェアの基礎知識(4) - GPGPU
第39回 ハードウェアの基礎知識(3) - レンズ
第38回 ハードウェアの基礎知識 (2) - 電子シャッター
第37回 コンピュータビジョン分野で活躍する企業・フリーランサー インタビュー(3)
第36回 領域分割(3) - CRFを用いたSemantic Image Segmentation
第35回 領域分割(2) - Mean Shift法を用いたImage Segmentation
第34回 領域分割(1) - 概要編
第33回 見えないものを観る(3) - 目に見えない光「赤外線」を観る
第32回 見えないものを観る(2) - 絵画の下書きを観る
第31回 見えないものを観る(1) - 映像から音を復元する
第30回 動く人・物を追跡する(4) - OpenCVのトラッキング手法(後編)
第29回 動く人・物を追跡する(3) - OpenCVのトラッキング手法(中編)
第28回 動く人・物を追跡する(2) - OpenCVのトラッキング手法(前編)
第27回 動く人・物を追跡する(1) - OpenCVによるトラッキング
第26回 インターネット上の画像群からTime-lapse映像を自動生成する手法の概要
第25回 一人称視点(3) - Social Saliency
第24回 一人称視点(2) - Social Interaction
第23回 一人称視点(1) - 概要
第22回 行動認識(3) - Two-stream ConvNets
第21回 行動認識(2) - 動きの特徴量(HOF、MBH)
第20回 行動認識(1) - Dense Trajectories
第19回 視線計測(3) - カメラのみを用いた視線計測
第18回 視線計測(2) - 近赤外の点光源を用いた視線計測
第17回 視線計測(1) - 導入編
第16回 コンピュータビジョン分野における機械学習(4) - Deep Learning
第15回 コンピュータビジョン分野における機械学習(3) - 識別器
第14回 コンピュータビジョン分野における機械学習(2) - 顔検出・人検出
第13回 コンピュータビジョン分野における機械学習(1) - 導入編
第12回 コンピュータビジョン分野の市場分析(1) - 自動車編
第11回 コンピュータビジョン分野で活躍する企業・フリーランサー インタビュー(2)
第10回 カメラを用いた3次元計測(4) - Structure from Motion
第9回 カメラを用いた3次元計測(3) - サブピクセル推定
第8回 カメラを用いた3次元計測(2) - ステレオカメラ
第7回 コンピュータビジョン分野で活躍する企業・フリーランサー インタビュー(1)
第6回 カメラを用いた3次元計測(1)
第5回 意外と知らないカメラキャリブレーション
第4回 ハードウェアの基礎知識
第3回 コンピュータビジョンの要素技術と応用範囲(後編)
第2回 コンピュータビジョンの要素技術と応用範囲(前編)
第1回 普及期に入ったコンピュータビジョン

もっと見る



人気記事

一覧

イチオシ記事

新着記事