随着索尼Hi-Res Audio概念的提出以及近期一些支持DSD解码设备的上市,DSD的曝光率似乎又高了起来,但DSD优势是什么?不妨看看笔者的一些观点。
DSD和现行的PCM截然不同
[PChome电脑之家音频频道原创]随着索尼Hi-Res Audio概念的提出以及近期一些支持DSD解码设备的上市,DSD的曝光率似乎又高了起来,同时这也勾起了无数发烧友的好奇心,现今有很多厂商都以此作为宣传和卖点,声称DSD拥有更好音质。但DSD倒底是什么?它和传统的音频文件比起来优势究竟有多大?有没有必要购买支持硬解DSD的设备?使用软件解码可不可以?由于目前DSD音频资源以及支持的设备比较匮乏,因此DSD对于大多数网友是比较神秘的,而这些问题可以说是目前关注度最高的,也是有很多网友或多或少拥有的疑惑,笔者也将就这些疑问,结合自己的观点为大家谈谈关于DSD的一些事情。
想要了解DSD得先从PCM说起
说到DSD就不得不提到目前使用广泛的PCM,而我们电脑中常见WAV格式的音频文件其内部封装的正是PCM的音频,苹果的OS X系统下则是采用aiff格式来存储封装PCM的音频。PCM的全称是Pulse-code modulation。中文是脉冲编码调制,是一种音频模拟信号的数字化方法。PCM将信号的强度依照同样的间距分成数段,然后用独特的二进制来量化。将音频模拟信号转变成数字信号的过程是一种调制的过程,从数字信号回制成模拟信号的过程则是解调。
4bit位深的PCM编码示意图
我们都知道音频信号是一种模拟信号,日常使用的PC则是数字化设备,内部采用存储的是数字信号,因此在PC这些数字设备当中播放音频就必须先将音频进行数字化的存储,PCM则可以看作是这样的一个解决方法,它可以将音频模拟信号转化成数字信号。上图的当中的红色曲线代表了一个正弦波,蓝色的点则是取样点,横坐标是采样频率,纵坐标是采样位深,这样我们就能从正弦波得到9、11、12、13、14等一组数据,而这些数据可以被数字化的设备轻松识别,这个过程可以看作是一个PCM编码的大致原理,同时也可以解释为何我们日常播放的音频当中会注明24bit或是48kHz这些参数。在实际应用当脉冲编码调制肯定不会是那么简单的,通常是由专门的芯片来完成的,这就是ADC(模数转换器)。
这张图更加形象的阐述了PCM的编码原理
当然我们得到了这些数字化的音频信号后并不能简单的将其存储在CD或是硬盘当中,为了在播放时能够识别不同规格的PCM还需要为其添加一定的标识或是进行分割,因此我们就将PCM封装成了WAV或是aiff格式,当然直接用虚拟信号采样得到的PCM体积是比较庞大,通常还会对PCM进行压缩,类似于ape、flac、tta等就是PCM经过无损编码压缩后的结果,而我们常见mp3、aac等则是经过了有损压缩。
TI PCM1794A DAC芯片
经过压缩后的PCM在体积上会有不少优势,但播放时需要先将压缩数据解压成还原成PCM才能过DAC芯片解码成模拟音频信号供信号放大器使用。压缩音频编码解码成PCM的过程中并不涉及数字和模拟信号的转换,一般通过CPU即可完成,而PCM还原成模拟信号则需要DAC才可完成,并不能通过CPU来进行,DAC并不是支持解调任何规格的PCM,目前较高规格的PCM可以达到32bit/192kHz,而大多数声卡当中DAC至支持24bit/192kHz的规格,因此播放时还需通过CPU对高规格的PCM进行向下采样。
说到这里大致可以了解凡事数字信号之间的转换可以通过CPU等数字化的可编程设备来进行,而数字模拟信号之间的转换必须通过专门设计的DAC、ADC进行。
欢迎提供建议,如有任何与音频的相关问题,可以向我们发帖提问:
更多精彩的最新键鼠外设资讯,请点击进入音频频道!
网友评论