Was sind die technischen Parameter und Messungen eines digitalen Multimeters?
1, Auflösung, Wort und Bit
Die Auflösung ist die Fähigkeit eines Multimeters, bei Messungen kleine Signale zu unterscheiden. Wenn Sie die Auflösung des Multimeters kennen, können Sie feststellen, ob es eine sehr kleine Änderung des gemessenen Signals erkennen kann. Wenn ein digitales Multimeter beispielsweise eine Auflösung von 1 mV auf der 4-V-Skala hat, kann es beim Ablesen von 1 V eine Änderung von 1 mV (1/1000 V) erkennen.
Wenn Sie eine Mindestlänge von 1/4 Zoll (oder 1 mm) messen müssten, würden Sie kein Lineal mit einer Mindestskala von 1 Zoll (oder 1 cm) kaufen. Wenn die normale Temperatur 98,6 Grad Fahrenheit beträgt, ist ein Thermometer, das nur ganze Grade misst, nicht sehr nützlich. Sie benötigen ein Thermometer mit einer Auflösung von 0,1 Grad.
Die Wörter „Bit“ und „Wort“ werden verwendet, um die Auflösung eines Multimeters zu beschreiben. Digitale Multimeter können nach der Anzahl der Wörter oder Bits gruppiert werden, die sie anzeigen.
Ein 3½-stelliges Multimeter zeigt drei ganze Ziffern (0 bis 9) und eine „halbe Ziffer“ an (nur eine „1“ wird angezeigt oder bleibt leer). Ein 3½-stelliges Multimeter hat eine Anzeigeauflösung von bis zu 1.999 Wörtern. Ein 4½-stelliges Multimeter hat eine Anzeigeauflösung von bis zu 19.999 Wörtern. Die Verwendung von „Wörtern“ ist eine genauere Art, die Priorität eines Multimeters zu beschreiben als „Bits“. Heutige 3½-stellige Multimeter können Auflösungen von bis zu 3.200, 4.000 oder 6.000 Wörtern haben.
Für einige Messungen bietet ein 3.200-Wort-Multimeter eine bessere Auflösung. Beispielsweise misst ein 1.999-Wort-Multimeter keine 0,1 V, wenn 2.00 V oder mehr gemessen werden sollen, wohingegen ein 3.200-Wort-Multimeter bei Messungen bis zu 320 V 0,1 V anzeigt. Dies ist die gleiche Auflösung wie das teurere 20.000-Wort-Multimeter, bis 320 V überschritten werden.
Genauigkeit
Die Genauigkeit ist der maximal zulässige Fehler unter bestimmten Betriebsbedingungen. Mit anderen Worten gibt die Genauigkeit an, wie nahe der von einem Digitalmultimeter angezeigte Messwert am tatsächlichen Wert des gemessenen Signals liegt.
Die Genauigkeit eines Digitalmultimeters wird normalerweise als Prozentsatz des Messwerts angegeben. Eine Genauigkeit von 1 % des Messwerts bedeutet, dass, wenn der angezeigte Messwert 100 V beträgt, der tatsächliche Spannungswert ein beliebiger Wert zwischen 99 V und 101 V sein kann.
Die technischen Daten können auch einen Bitbereich enthalten, der dem grundlegenden Genauigkeitsparameter hinzugefügt wird. Dieser Bereich stellt die Anzahl der Wörter dar, um die sich die äußerste rechte Ziffer des angezeigten Werts ändern kann. Somit kann die Genauigkeit im obigen Beispiel als „± (1 % + 2)“ ausgedrückt werden. Wenn die Anzeige also 100 V anzeigt, liegt die tatsächliche Spannung zwischen 98,8 V und 101,2 V.
Die Parameter eines analogen Multimeters werden durch den Skalenendwertfehler bestimmt, nicht durch den Prozentsatz des angezeigten Messwerts. Die typische Genauigkeit eines analogen Multimeters beträgt ±2 % oder ±3 % des Skalenendwerts. Bei 1/10 Skalenendwert beträgt die Genauigkeit 20 % oder 30 % des Messwerts. Die typische Grundgenauigkeit für digitale Multimeter basiert auf ±(0,7 %+1) und ±(0,1 %+1) des Messwerts oder besser.
