Welche technischen Parameter hat ein Digitalmultimeter und welche Messungen kann es durchführen?
1, Auflösung, Wort und Bit
Die Auflösung ist die Fähigkeit eines Multimeters, bei Messungen kleine Signale zu unterscheiden. Wenn Sie die Auflösung des Multimeters kennen, können Sie feststellen, ob es eine sehr kleine Änderung des gemessenen Signals erkennen kann. Wenn ein digitales Multimeter beispielsweise eine Auflösung von 1 mV auf der 4-V-Skala hat, kann es beim Ablesen von 1 V eine Änderung von 1 mV (1/1000 V) erkennen.
Wenn Sie eine Mindestlänge von 1/4 Zoll (oder 1 Millimeter) messen müssen, würden Sie kein Lineal mit einer Mindestskala von 1 Zoll (oder 1 Zentimeter) kaufen. Wenn die normale Temperatur 98,6 Grad Fahrenheit beträgt, ist ein Thermometer, das nur ganze Grade misst, nicht sehr nützlich. Sie benötigen ein Thermometer mit einer Auflösung von 0,1 Grad.
Die Wörter „Bit“ und „Wort“ werden verwendet, um die Auflösung eines Multimeters zu beschreiben. Digitale Multimeter können nach der Anzahl der Wörter oder Bits gruppiert werden, die sie anzeigen.
Ein 3½-stelliges Multimeter zeigt drei ganze Ziffern (0 bis 9) und eine „halbe Ziffer“ an (nur eine „1“ wird angezeigt oder leer gelassen). Ein 3½-stelliges Multimeter hat eine Anzeigeauflösung von bis zu 1.999 Wörtern. Ein 4½-stelliges Multimeter hat eine Anzeigeauflösung von bis zu 19.999 Wörtern. Die Verwendung von „Wörtern“ beschreibt die Auflösung des Multimeters genauer als „Ziffern“. Heutige 3½-stellige Multimeter können Auflösungen von bis zu 3.200, 4.000 oder 6.000 Wörtern haben.
Bei manchen Messungen bietet ein 3.200-Wort-Multimeter eine bessere Auflösung. Beispielsweise misst ein 1.999-Wort-Multimeter nicht bis 0,1 V, wenn eine Spannung von 2.00 V oder mehr gemessen werden soll, während ein 3.200-Wort-Multimeter bei Messungen bis 320 V 0,1 V anzeigt. Diese Auflösung ist die gleiche wie die eines teureren 20.000-Wort-Multimeters, bis die Spannung 320 V überschreitet.
2. Richtigkeit
Die Genauigkeit ist der maximal zulässige Fehler unter bestimmten Betriebsbedingungen. Mit anderen Worten gibt die Genauigkeit an, wie nahe der von einem Digitalmultimeter angezeigte Messwert am tatsächlichen Wert des gemessenen Signals liegt.
Die Genauigkeit eines Digitalmultimeters wird normalerweise als Prozentsatz des Messwerts angegeben. Eine Genauigkeit von 1 % des Messwerts bedeutet, dass, wenn der angezeigte Messwert 100 V beträgt, der tatsächliche Spannungswert ein beliebiger Wert zwischen 99 V und 101 V sein kann.
Die technischen Daten können auch einen Bitbereich enthalten, der dem grundlegenden Genauigkeitsparameter hinzugefügt wird. Dieser Bereich stellt die Anzahl der Wörter dar, um die sich die äußerste rechte Ziffer des angezeigten Werts ändern kann. Somit kann die Genauigkeit im obigen Beispiel als „± (1 % + 2)“ ausgedrückt werden. Wenn die Anzeige also 100 V anzeigt, liegt die tatsächliche Spannung zwischen 98,8 V und 101,2 V.
Die Parameter eines analogen Multimeters werden durch den Skalenendwertfehler bestimmt, nicht durch einen Prozentsatz des angezeigten Messwerts. Die typische Genauigkeit eines analogen Multimeters beträgt ±2 % oder ±3 % des Skalenendwerts. Bei 1/10 Skalenendwert beträgt die Genauigkeit 20 % oder 30 % des Messwerts. Die typische Grundgenauigkeit für digitale Multimeter liegt zwischen ±(0,7 %+1) und ±(0,1 %+1) des Messwerts oder besser.
3. Ohmsches Gesetz
Die Spannung, der Strom und der Widerstand eines Stromkreises können mit dem Ohmschen Gesetz berechnet werden, das wie folgt lautet: „Spannung ist gleich dem Produkt aus Strom und Widerstand.“ Wenn also zwei beliebige Werte dieser Formel bekannt sind, kann ein dritter Wert ermittelt werden.
Digitale Multimeter nutzen das Ohmsche Gesetz, um Widerstand, Stromstärke oder Spannung direkt zu messen und anzuzeigen. Im Folgenden wird beschrieben, wie Sie mit einem digitalen Multimeter ganz einfach den gewünschten Parameter messen können.
