基礎知識


(1)デジタルとアナログの違い

音はアナログです。そして音は空気の振動です。この音の振動はどんな形で伝わるのでしょう?
例えば、静かな水面に石を一個投げ入れた時に、そこを中心に波紋が広がって行きますが、
波紋の広がる方向に切って切り口をながめると、図1のような波形になっています。

空気中でも音が発した点から空気の波紋が広がって行きます。目には見えませんが、
同じような波形をしています。これが音のアナログ波形です。

 そこでデジタルですが、このような音の波形を録音したり電話や無線で通信したりする時に、
図2のように、アナログ波形の変化を電気的にある約束に従って数値の連続に置き換えたものです。

録音や通信をするときに、アナログのまま扱うと雑音が入ったり音質が悪くなったりしやすいのですが、
音の波形をデジタル=数値のデータとして扱うことでその心配が無くなり、
一定の品質を保ちながら様々な処理をする事ができます。


(2)デジタルだと何が便利か

 デジタルオーディオ信号ならば、例えばパソコンを使って録音や編集をすることもできるので便利です。

また、たった12cm径のCDに74分間の音楽を記録でき、さらにデジタル圧縮処理することで、
同じ長さの音楽をもっと小さな径のMD等に記録できます。

 このようにデジタル信号は圧縮ができるので、大量の情報を保存するのにも便利です。
音だけでなく、もっと情報量の多い映像信号も圧縮技術を利用することで高速に記録や通信ができます。

特に通信では、1本の配線で複数の情報を通信するデジタル多重双方向通信が実現できます。
そして、電気信号の他にレーザー光による光通信もできるので、非常に高速で通信ができます。


(3)サンプリング周波数とは

 デジタル信号はあらかじめ決められた一定の時間ごとに処理されます。
1秒間に何回処理するかを表すのがサンプリング周波数(サンプリング・レート)で、Fsまたはfsと表します。

 サンプリング周波数の単位はHz(ヘルツ)で、
サンプリング周波数44.1kHz(キロヘルツ)は1秒間に44,100個のデータを処理することを表します。
(kは1,000倍を表します)

 連続したアナログ信号をデジタル信号にするのがAD変換で、
サンプリング周波数で決まる時間ごとに信号の大きさを測り(サンプリング)、
その結果を2進数にします(量子化)。

反対に、デジタル信号をアナログ信号に直すのがDA変換で、
サンプリング周波数の時間間隔でデジタル信号を読み出し、滑らかにつなぎます。

 デジタル信号はサンプリング周波数の1/2の周波数まで再現できるので、
サンプリング周波数が大きいほど高い周波数まで再生でき、音質が良くなります。
身近なところでは、CDで44.1kHz、DATや衛星放送Bモードでは48kHzが採用されています。

 また、最近のプロ用機器では88.2kHzや96kHzといった高いサンプリング周波数 (ハイ・サンプリング)も使われ、
より高い周波数の音まで忠実に再生して音質を良くする工夫がされています。



(4)bitとは

 bit(ビット)とは、Binary Digitsの略称です。
カタログなどにある16bit、24bitとは、コンピューター等で扱われる2進数*の桁数を表しています。

デジタルオーディオでは、アナログである音をデジタル信号に変換しますが、
サンプリングした後で2進数にする(量子化)ときに振幅値をどこまで細かく変換するかをきめるのがbit数です。
 1bitの場合、1か0しか判断できませんが、8bit(10001001)では2の8乗、つまり256段階まで細かく判断できます。

 現在主流の16bitでは65,536段階、24bitでは、16,777,216段階になります。
 さてここで実際の波形(アナログ波形)とサンプリングして量子化されたデジタル波形では
どうしても一致しない部分があります。これが量子化ノイズというものです。
このノイズは特にbit数が少ない時に目立ちます。

 したがって単純にFsとbit数をあげれば音が良くなる(原音に近づく)訳ですが
、 その分メモリーをたくさん消費してしまいます。また、デジタルレコーディングの場合は、
その高音質を引き出すためにも入力レベルの管理が非常に重要です。
 録音レベルが小さすぎると、その良さを引き出せません。

記録する音楽の最大レベルのところでクリップしないように設定するのは重要ですが、
全体の平均レベルを出来るだけ上げるようにしてアナログより広いダイナミックレンジ
(記録できる、大きい音と小さい音のレベル差)を十分に利用し、SN(信号とノイズの差)の良い録音をしてください。

*私たちが普段使っている10進数は0〜9の10種類の数字の組み合わせで数を表しますが、
2進数では0と1を組み合わせて表します。

 例えば4桁の2進数では、

10進数01234・・・・1415
2進数011011100・・・11101111
 のように0〜15までの数を表せます。



(5)同期とは

 システム内で各々の機器がそれぞれ同じタイミングで意気を合わせて動く状態を言います。

 デジタル機器では、ワードクロックと呼ばれる基準信号を使い、
各々の機器をアナログ機器とは比較できない高精度で同期させることができます。

 各機器の設定は基準となるワードクロックを供給する機器をワードクロックマスターとし、
この他のすべての機器をこのマスター設定した1台の指示を受けて同期して動作させるよう
ワードクロックスレーブに設定します。

 ワードクロックの役割は工場の流れ作業で使われるベルトコンベアーに似ています。


 デジタル化された音声データは細かい時間に区切られ、
各機器に伝えられて処理され最終的にDAコンバーターでアナログの音声信号に戻されます。
途中でベルトコンベアーのスピードが変化したらどうなるでしょうか。
データを取りこぼしたり、タイミングが合わなくなります。

 システム内に同期していない機器があるとこれと同じ原因で音がドロップアウトしたり、
ノイズが混入するなどの問題が発生してしまいます。

 同期に関しては各機器を正確に設定し、各機器間でのワードクロックの伝達を確実にすれば、
デジタルならではの高性能かつ快適な動作を実現できます。



(6)デジタル記録用の媒体

CDコンパクトディスク。1982年に登場。
CDエクストラ絵や画像も再生できるCD。
CD-R1回だけ録音可能なCD。
CD-RW何回も録音可能なCD。
DATデジタル・オーディオ・テープ。磁気テープに記録再生。
MDミニディスク。1991年に登場。
MP3ネット、パソコンなどでCDクオリティの音質を実現。
SACDスーパーオーディオCD。現CDより高音質化。
DVDオーディオ音楽以外に映像も再生できる。


(7)デジタルオーディオで使用されるフォーマットと端子

S/PDIF(Sony Philips Digital Interface)
ソニー社とフィリップス社が確立した2チャンネルオーディオのデジタル伝送フォーマット。
CDやDAT、MDなどのコンシューマー向けの機器に使用され、
伝送方式は同軸ケーブル対応(COAXIAL)または光ファイバー対応(OPTICAL)の2種類があります。
現在ではIEC-60958 Type-2として世界の標準規格となっています。

AES/EBU
AES(Audio Engineering Society)とEBU(European Broadcasting Union)が確立した入出力規格。
現時点では世界的に通用する業務用標準規格(IEC-60958 TYPE-1)として採用されています。
1回線で2チャンネル分の信号に対応しているのが特徴で、通常XLR(キャノン)タイプの接続で送信されます。

ADATオプティカル
米国ALESIS社の提唱したデジタルマルチトラックのフォーマット。
光ファイバー1回線で8チャンネル分のデータを同時に伝送する方式です。

TDIF-1(Tascam Digital Interface)
ティアック(タスカム)社が提唱するデジタルインターフェース規格。
D-sub25ピンの専用ケーブルで8チャンネルの入出力を伝送する方式です。



(8)デジタルレコーディング/オーディオの歴史

1876年エジソン、円筒式録音再生機発明露独戦争、廃刀令
1937年ドイツ人 リーブスがデジタル伝送方式を発案-
1946年独国より米国にアナログテープレコーダー渡る天皇の人間宣言
1957年レコードがステレオ化南極に昭和基地設営
1965年NHKデジタルレコーダー開発開始北ベトナム爆撃開始
1967年デンオンのデジタルレコーダーDN-023R完成EC(ヨーロッパ共同体)発足
1969年フィリップスが、レーザーディスクの研究開始東名高速開通
1972年フィリップスが、レーザーディスクを発表沖縄施政権返還、札幌オリンピック
1975年ソニー、業務用PCMプロセッサーPCM-1600発売ベトナム戦争終結
1977年ソニー、民生用PCMプロセッサーPCM-1発売
CDの規格原案、国内3社にて発表
王貞治、ホームラン世界新記録
756本達成
1979年PCM統一フォーマット、EIAJ/PCM設定米中国交成立
1980年米国ユニバーサル・パイオニア、LD規格発表モスクワオリンピック
1981年CD規格発表、82年に日本、83年に欧州、
84年に米国、各発売
スペースシャトル“コロンビア”
打ち上げ成功
1982年DASHフォーマット提案
(スチューダ社、松下電器産業、ソニー)
フォークランド紛争
1984年EIAJにより1本のケーブルで2信号を送る規格決定
NHK衛星テレビ放送開始、
ロサンゼルスオリンピック
1985年DAT規格の統一フォーマット設定
(R-DAT、S-DAT)
つくば万博

1986年DAT製品化
ティアック、DASHフォーマットサポート表明
三原山大噴火、チェルノブイリ原発事故
1988年ハードディスクを使ったデジタルオーディオワークステーション(DAW)登場 イラン=イラク戦争終結
1991年米国アレシス、デジタルマルチレコーダー
ADAT製品/規格発表
湾岸戦争勃発
1992年ティアック、デジタルマルチレコーダー
DA88/DTRS規格発表。MD発売
ロサンゼルス黒人暴動
1998年DVD規格発表クリントン不倫疑惑、和歌山カレー事件
1999年DVDオーディオ発表
デジタルミュージック・フェア
〜MIDI WORLD'99 開催
2002年デジタル地上放送で音楽専用チャンネル開始-
20XX年デジタルオーディオの世界は未知数-
DASHフォーマット=世界的規模での互換性を実現すべく、広く世界に提案された固定ヘッドによる
                  業務用デジタルオーディオテープレコーダーフォーマット。
                  1/4インチ・2チャンネルから1/2インチ・48チャンネルまで規格が網羅されています。