为什么示波器的阻抗大部分为50Ω和1M?

如题所述

  示波器的阻抗大部分为50Ω和1M的原因:
  特性阻抗大小会影响信号传输功率、传输损耗、串扰等电气性能,而其板材和几何结构又影响制造成本,这种情况只能找一个折中值。而50Ω正是同轴线的传输功率、传输损耗以及制造成本的一个最佳平衡点。所以大多数高速信号都会采用50Ω特性阻抗系统,形成标准并沿用至今,成为使用最广泛的一种阻抗标准。比如常见的PCIE,其单端阻抗就是要求是50Ω。
  1MΩ是示波器的规范。而电容是并不想要但是又不可避免的寄生参数。在DC和较低频时,1MΩ起到主导地位。而当频率超过10M以后,电容会成为主要的负载。由于这两个参数的引入,就会使得测量时的信号与原信号有差异,从而使测量结果出现误差。那么差异有多大呢,这也要取决于被测电路的输出电阻和负载。
温馨提示:答案为网友推荐,仅供参考
第1个回答  2015-07-10
电信号在传输的过程中是以电磁波的形式传播的,当传输线的尺寸不小于电磁波波长时,为了不让反射发生,就出现了均匀传输线,如PCB微带线,同轴线等。他们介质均匀,任何一点横截面几何结构相同,这样就可以保证电信号不会在传输线内发生反射了。除了反射之外,还要考虑一下示波器的负载效应。在调试一个有问题的电路,想看看波形,结果接上探头电路就正常了,拿开探头电路就又出问题,这就是负载效应引起的。示波器在1MΩ阻抗模式下的等效模型比较复杂,大致可以等效成是1MΩ和一个十几pF的电容并联在一起的形式。这个1MΩ是示波器的规范。而电容是我们并不想要但是又不可避免的寄生参数,在DC和较低频时,1MΩ起到主导地位,而当频率超过10M以后,电容会成为主要的负载。由于这两个参数的引入,就会使得测量时的信号与原信号有差异,从而使测量结果出现误差。追问

你上面说到的测量结果误差有多大的呢?

追答

测量的结果误差大小要看电路的输出电阻和负载了,关于这一方面的,ZLG致远电子有发过一篇“为什么示波器阻抗偏偏是1M和50欧?”文库资料,你可以参考下。

本回答被提问者采纳