万用表的精度是怎么算出来的,利用什么原理算出来的?

如题所述

数字万用表准确度以直流电压档为准,计算方法为
V=|TU/AU|
V为精度等级 5级=+-5%
TU测量示值的绝对误差。如标准电压为100V,测量示值为102V,示值绝对误差=100-102=-1
AU为量程,200V档为200V
则精度=(-2)/200=|-1%|,精度等级为1.0
温馨提示:答案为网友推荐,仅供参考
第1个回答  2012-06-27
万用表的精度主要是由表头(指针表)和数字显示屏(数字表)的基本性能来决定的,不是算出来的。对于一个已知的表,要知道它的实际测量精度,需要将其与高等级的标准表按照测量规则进行对比来标定。本回答被网友采纳
第2个回答  2012-07-08
说明书上对每个量程都有计算公式的
第3个回答  2016-01-10
万用表的精度根据公式±a%=(ΔXm/Xm)×100%来计算:
1、电工测量指示仪表在额定条件下使用时,其最大基本误差的百分数称为仪表精度等级a的百分数,即±a%=(ΔXm/Xm)×100%。
其中,ΔXm为最大绝对误差,Xm为仪表的基本量程。
2、国家标准规定,电压表和电流表的精度等级分0.05、0.1、0.2、0.3、0.5、1.0、1.5、2.0、2.5、3.0、5.0等十一级;
3、功率表和无功功率表的精度等级分0.05、0.1、0.2、0.3、0.5、1.0、1.5、2.0、2.5、3.5等十级;
4、频率表的精度等级分0.05、0.1、0.15、0.2、0.3、0.5、1.0、1.5、2.0、2.5、5.0等十一级。
5、测量时,仪表全量程范围内的指示误差不得超过最大基本误差。:
相似回答