当前位置: 首页 / 新闻与活动 / 行业新闻 / 示波器和频率计测量频率,哪个更准?
示波器和频率计测量频率,哪个更准?
发布时间: 2020-05-27
浏览次数: 1612
示波器测量频率准不准? 示波器是否能够分辨出频率分别是74.25MHz和74.1758MHz的两个信号? 晶振的频率稳定度要求是5ppm,怎么用示波器测量这个指标? 示波器测量频率和频率计测量频率在原理上有什么不同?
鼎阳示波器
一周一问之No.002问


数字示波器测量频率准不准?
 
示波器是否能够分辨出频率分别是74.25MHz和74.1758MHz的两个信号?
 
晶振的频率稳定度要求是5ppm,怎么用示波器测量这个指标?
 
示波器测量频率和频率计测量频率在原理上有什么不同?
 
分割线
 
    在电子技术领域中,信号频率的测量是我们经常会遇到的问题,示波器和频率计均可以实现频率测量,那么究竟哪种方法的测量结果更为准确呢?下面我们将就这两种方法的测量原理和区别来做一些说明:
 
一.
数字示波器测频率
 
    示波器被称为工程师的眼睛,是时域上观察信号不可或缺的工具。现在普及的绝大多数是数字示波器。数字示波器的本质是将待测的模拟信号转换为离散的采样点,点和点通过某种方式相连组成了示波器屏幕上的波形。根据屏幕上的波形,示波器采用软件编程的“算法”来计算波形的相关参数。
 
    频率是任何一台数字示波器都具有的测量参数,是周期的倒数,表示信号在单位时间(1秒)内变化的次数,通常用f表示,基本单位是Hz,1Hz表示每秒变化一次。 数字示波器测量频率的算法是怎么来的呢? 理解这个算法就理解了示波器测量频率的准还是不准的误差源。)
 
    主流的数字示波器对频率进行测量算法是按周期的倒数来计算的。先计算出周期,再计算出频率。 示波器计算周期的算法是:计算出信号这个上升沿幅值50%的点到相邻下一个上升沿幅值50%的点之间的时间间隔。因此,示波器要先获得50%的点。要得到50%的点,必然需要确定幅值,那么我们就需要理解示波器测量参数的第一算法:确定高电平和低电平
 
    峰峰值表示所有采样样本中的最大样本值减去最小样本值,这好理解,在示波器算法中也好实现; 而幅值表示被测信号的“高电平”减去“低电平”。高电平和低电平分别在哪里? 这就需要定义算法。这个算法的确定将不只是直接影响到“幅值”这个参数值,还将影响到绝大多数水平轴的参数值,如上升时间,下降时间,宽度,周期等,因为水平轴的参数要依赖于垂直轴的参数。
 
    不同示波器厂商给出的“高电平”和“低电平”算法可能不尽相同,但都会采用公认的IEEE定义的算法,如图1所示,首先对图示中“LEFT CURSOR”(左光标)和“RIGHT CURSOR”(右光标)时间范围内的波形数据样本向垂直方向做“轨迹直方图”,从图中看上去, 轨迹直方图的垂直方向和原始波形的各采样点在垂直方向的位置一一对应,水平方向则表示在这个各位置上采集到的数据样本点的个数。图例中表示,有两个位置的数据样本出现的概率最高,这两个位置就分别被确定为“高电平(图示中表示top的位置)”和“低电平(图示中表示base的位置)”。(详见参考文献《关于数字示波器测量参数的第一算法》)
 
 IEEE定义的高电平和低电平算法成为其它一些参数算法的"源头"
 
图1 IEEE定义的高电平和低电平算法成为其它一些参数算法的"源头"
 
    如图1所示,幅值的定义是base(底部)到top(顶部)的纵轴差值。而top和base值是根据概率分布计算得来,若屏幕上样本数不够,一点点的过冲或下冲就可能影响到直方图分布的最大概率状态的确定,则会产生统计误差。
 
    利用鼎阳SDG5160信号源产生峰峰值为3V,频率49.0258642MHz的正弦波信号,输入到国内首款智能示波器鼎阳SDS3034(此示波器具备AIM功能,测量结果精确;并内置了硬件频率计,便于对比分析)中,得到测量参数结果如图2所示:
时基档位为200ns/div时的测量结果统计
 
图2 时基档位为200ns/div时的测量结果统计
 
改变时基,测量结果如图3所示:
 
时基档位为10ns/div时的测量结果统计

图3 时基档位为10ns/div时的测量结果统计
 
    观察图片可以发现,在时基档位为200ns/div时,样本数为96,测量结果为49.02618MHz,更接近信号源输入频率49.0258642MHz,而时基档位为10ns/div时,样本数仅仅为4,测量结果49.02037MHz,偏离相对来说更大。
 
    由于周期的测量结果依赖于样本数的多少,因而时基不同时,得到的频率和周期会有一定的误差。而硬件频率计测量并不依赖于这些算法,所以我们可以观察到,在时基变化的过程中,硬件频率计的测量结果为49.026MHz,几乎是没有变化的。
 
    不得不承认,软件算法测量频率在技术上是存在一定缺陷的,这是所有数字示波器共有的;但通过上图可以发现,利用SDS3000系列独创的AIM(All In One Time Measurement——一次性测量屏幕上所有波形参数)功能进行测量,误差并不太大。
 
    还有一种情况是当我们通过信号源SDG5160产生一个如图4所示的扫频信号
 
    并输入到
数字示波器,测量结果如图5所示 :
信号源SDG5162输出方波扫频信号
图4 信号源SDG5162输出方波扫频信号
非规则信号的频率测量结果
图5 非规则信号的频率测量结果
 
    图5是我们通过鼎阳SDS3034示波器观察到的波形情况,测量出的最小周期为117.4000us,最大周期为310.2998us,这是对屏幕上所有波形参数结果的统计。频率“Mean”值为5.778KHz,显然结果并不符合设定。但硬件频率计测量出来的频率为5.012KHz,几乎与设定的中心频率一致,这主要是因为硬件频    率计测频只是对波形脉冲个数的计数,并不关注波形细节,那么下面我们来具体了解一下频率计的工作原理:
 
二.频率计测频率

    在传统的信号分析中,示波器测量频率时精度较低,受制于诸多因素,随机误差较大,频率计受的制约比较小,精度高、误差小,其测量频率一般有三种方法,分别是直接测频法、测周期法、等精度测频法。
 
  1. 直接测频法:
 
    由时基振荡器产生的标准时基信号经过分频作为闸门触发器的标准参考,信号经过整形之后变为脉冲进入闸门,依靠闸门触发器对脉冲进行计数。当闸门宽度为1s时直接从计数器读出的数就是被测信号的频率,即每一秒闸门中有多少个脉冲通过,并不关注这些脉冲信号来到的早晚和规律(亦即信号波形细节),其原理图如图6所示:
 
直接侧频法原理框图
图6 直接侧频法原理框图
 
    直接测频法的实质就是记录在确定闸门开启时间T内待测信号经过整流后的脉冲个数N,通过这两项数据可计算待测频率fx:
 
fx=N/T (1)
 数字示波器待测信号计数过程
图7 待测信号计数过程
 
闸门的开启时刻与脉冲进入之间的时间关系是没法确定的,在图中我们可以看出,相同的闸门开启时间T内,计数脉冲的个数可能是7也可能是8,存在着±1的计数误差,这是频率量化时带来的误差,故又称为量化误差,其表示为,相对误差表示为:
 
数字示波器
 
    这种测量方法中闸门开启时间T为确定值,测量的精度主要取决于计数误差。对于1s 的闸门, ±1 计数误差为±1Hz,其相对误差为(±1/fx)*100%,可见,频率越大, 相对误差越小。所以此种方法更适用于测量高频信号,而非低频信号。
 
  1. 测周期法:
 
    利用被测信号经过整形电路的脉冲信号作为闸门触发器的标准参考,对标准时基脉冲进行计数。当闸门宽度刚好是一个被测信号周期Tc时直接从计数器读出的数值(也就是标准时基脉冲的个数)就是被测信号的周期值。
 
数字示波器-分析图
图片8
    此法的实质是在待测信号的一个周期Tc(确定值)内,记录标准时基信号脉冲个数 N,其数学表达式为(T为标准时基周期):
 
公式
    N的绝对误差为±1,其相对误差与直接测频法类似,表示为:
 公式-2
    相对误差随着被测信号周期Tc的增大而降低,故此法适于测低频(周期大)而不适于测高频(周期小)的信号。
 
    等精度测频:等精度测频方法也是利用闸门对被测信号脉冲计数,是直接侧频法的延伸,不过其闸门开启时间不是确定的值,而是利用了一定方式使得闸门时间始终为待测信号周期的整数倍,因此,有效避免了对被测信号计数所产生的±1误差,不会出现高频精度高,低频精度差的现象,达到了在整个测试频段的等精度测量。其测频原理如图9所示。
 等精度测频原理

图9 等精度测频原理
 
    图中的两个计数器(相当于两个闸门,分别是被测闸门Nx和标准闸门Ns)同时对被测信号和标准时基脉冲进行计数。在整个测量过程中,首先给出预制闸门开启信号(预置闸门上升沿),此时两个计数器并不开始计数,而是等到被测信号的上升沿到来时,计数器才真正开始计数。其测量过程如图10所示:
 
 数字示波器信号测量过程
图10 信号测量过程
 
    预置闸门关闭信号(下降沿)到时,计数器并不立即停止计数,而是等到被测信号的上升沿到来时才结束计数,完成一次测量过程。从图8中可以看出,实际闸门时间τ与预置闸门时间τ1并不相等,设在一次实际闸门时间τ中计数器对被测信号的计数值为Nx,对时基信号的计数值为Ns,被测信号频率为fx,标准时基频率为fs,则有:
 
 
    由于fx计数的起始和停止时间都是由该信号的上升沿触发的,在闸门时间τ内对fx的计数Nx无误差(τ=NxTx)。若忽略时基信号频率fs本身的误差(晶振产生的误差),此时等精度测频的主要误差来源于对标准频率计数的误差(),相对误差为:
 
δ=|ΔNs|/Ns≤1/Ns=1/(τ·fs) (6)
 
    由上式可以看出,测量频率的相对误差与被测信号频率的大小无关,仅与闸门开启时间τ和标准信号频率fs有关,说明了在整个频段的测量精度是等同的。
 
三.结语
    一般来说,软件测量结果是通过对当前屏幕显示的波形数据进行运算得来的,通常只能提供4位左右的有效数字,测量精度也被限制在4位左右。而硬件频率计则是用硬件电路直接对被测信号边沿进行计数从而得到精确的频率结果,因此硬件频率计的频率测量精度通常远远高于软件测频法。
 
    但如果就凭借这样简单的推测就认为硬件法一定优于软件法也是不确切的,一旦信号中有许多噪声叠加时,因为其触发没有规律可言,硬件频率计的显示结果会不断地跳动,无法捕捉其真实测量结果。而此时运用软件法从采集存储器当中截取出来的波形,由于采样的波形经过了滤波,噪声对其的影响相对较小,测量结果相对准确一些。我们可以通过信号源SDG5162设置一个峰峰值为40mv,频率为1KHz的小信号,由于其在传输过程中叠加了大量的噪声,所以送显示波器SDS3034发现如图11所示的现象:
 数字示波器
 
图11 幅值为40MV的小信号测量结果
 
    由图可以看出,软件法的测量结果为1.0000006KHz,而万用表项中内置的硬件频率计测量结果为15.483KHz。硬件测量的错误结果是由叠加噪声的误触发引起的,其图12所示: