高速シリアル・インタフェースへ移行する背景には、CPU処理速度やストレージの大容量化により、

  • 必要とするデータ帯域幅が飛躍的に増大
  • 大容量化したストレージ・デバイスにより、データやファイルの短時間での転送が必要に

ということがあります。

必要とするデータ帯域幅が飛躍的に増大

データ帯域幅(Data Bandwidth)は単位時間に転送するデータ量で、下記式で決まります。

データ帯域幅 = ビット数(バイト数)×データ・レート

データの例として画像を見てみましょう。

CPU処理速度や描画・表示技術が進歩すると、それだけ高精細でしかも細部に至るまで細かい動画の表示が可能となります(逆にそれを目指してCPUの処理能力を向上させたという背景もあります)。

画像は、モノクロから諧調表示(グレースケール)、さらに高解像度化(ピクセル数の向上)、カラー化され、静止画から動画が扱われるようになってきました。またカラーも細かい色表現ができるようになりました。換言すれば色深度が向上しました。パソコンの画面(ディスプレイ)の高解像度化の流れを図2-1に、テレビの画面の高解像度化の流れを図2-2に示します。

図2-1 パソコンの画面(ディスプレイ)の高解像度化の流れ

画像は高精細(高解像度で色深度が深い)であればあるほど、また動画もフレーム・レート(コマ数)が速いほど、データ量が大きくなります。

図2-2 テレビの画面の高解像度化の流れ

今後この流れは、3Dや現行フルハイビジョンの約4倍の解像度を持つ4K2K(3,840×2,160ピクセル、4,096×2160ピクセルなど4,000×2,000ピクセル前後)、あるいは約8倍の8K4K(4,000×2,000ピクセル前後)などを睨んで、さらに加速していきます。つまり必要なデータ帯域幅はどんどん広帯域化されることになります。

大容量ストレージにより、データ/ファイルの短時間転送が必要に

ストレージ技術の進歩では、身近なところでは、HDDや表2-1のように光ディスクの大容量化がありますが、フラッシュメモリを採用したフラッシュデバイスの大容量化が顕著です。

表2-1 光ディクスの大容量化の流れ

例えば携帯電話を含むデジタル家電に普及しているSDカードでは、従来の2GBまでのSDに加え、表2-2のようにSDHC、SDXCが規格化されました。従来は最先端の半導体プロセスというとDRAMの製造での使用が当たり前でしたが、今日ではフラッシュメモリの製造でも最先端プロセスを導入するようになっています。

表2-2 SDカードの大容量化の流れ

ハイビジョンの普及に圧縮技術の貢献が大きいですが、それゆえ大容量のディスクやフラッシュデバイスに録画し、保存したり、持ち運んだりすることが普及したわけです。パソコンのバックアップなどの使い方も含めて、そこではできる限り短時間に転送できるのが理想です。表2-3にUSBの例を示します。

表2-3 USBの理論上のデータ転送時間。メディア容量を丸ごと転送した場合の時間(USB-IFの資料を元に容量を変えて計算)

参考A:ハイビジョン画像のデータ量

現行フルハイビジョン1080iの場合、どの程度のデータ量になるのでしょうか? 画面の解像度は1,920×1,080ピクセルですが、図A-1に示すように実際は同期用パターンや音声データ、文字データなどの補助データを含む領域があり、実際の画面は2,200×1,125ピクセルで構成されています。

図A-1 ハイビジョンの実際の画素数。実際の画像に加え、同期用パターンや音声データ、文字データなどの補助データを含む領域がある

つまり1画面は

総ピクセル数 = 2,200×1,125 = 2,475,000ピクセル

で構成されています。1ピクセルは10ビットで表現されていますので、1画面のデータ量は

ビット/画面 = 10ビット×2,475,000ピクセル = 24,750,000ビット

1秒間に30フレームで構成されています。よって1秒間のデータ量は、

ビット/s = ビット/画面×画面(フレーム)数 = 24,750,000ビット×30フレーム = 742,500,000ビット

となります(図A-2)。

図A-2 ハイビジョンの非圧縮のデータ量。1秒間に1.485Gビットのデータを送る必要がある

さらにカラー画像として輝度情報(ルミナンスY)および輝度情報と同じデータ量の色情報(色差成分:クロミナンス。実際は輝度成分に対し半分に間引かれたB-Y、R-Yという2つの色情報が交互にある)で構成されているので、

ビット/s:742,500,000ビット/s×2 = 1,450,000,000ビット/s

で1.485Gビット/s、148.5MB/sのデータ帯域幅が必要となります。この意味は、1本の信号で送るのであれば1.485GHz、パラレル10ビットであれば148.5MHz、パラレル20ビットで転送するのであれば、74.25MHzで転送することを意味します(実際、放送規格ではシリアル1.485Gbpsで送るSMPTE292M、パラレル20ビット74.25MHzで送るSMPTE274Mとして規格化されています。なお、日本ではフレーム数は30フレームを1.001で割った29.97フレームが用いられているので、上記の数字を1.001で割った値となる)。

また表示系では、各画素は赤・緑・青(RGB)で構成され、各色同じ情報量のデータがディスプレイのリフレッシュ・レートに合わせて送り出します。その結果、リフレッシュ・レートが60Hz(フレーム・レートの倍)の場合、色成分ごとに1.485Gビット/sとなり、148.5MB/sのデータ帯域幅、画像全体では445.5MB/sが必要なデータ帯域幅になります(図A-3)。

図A-3 ハイビジョン表示系のデータ容量。リフレッシュ・レート60Hzの場合。RGBごとに1.48Gビット/sで画面全体で445MB/sとなる

なお、 日本の地上波デジタル放送は、MPEG-2トランスポート・ストリーム(MPEG-2 TS)として情報量を約16Mbpsに大幅に圧縮して家庭まで伝送しています。

著者
畑山仁(はたけやま・ひとし)
テクトロニクス社 シニア・テクニカル・エクスパート