Was sind die technischen Parameter und Messmethoden von Digitalmultimetern?
1. Auflösung, Wortanzahl und Bitanzahl
Unter Auflösung versteht man die Fähigkeit eines Multimeters, kleine Signale während der Messung zu unterscheiden. Wenn Sie die Auflösung eines Multimeters kennen, können Sie feststellen, ob es kleine Änderungen im gemessenen Signal beobachten kann. Wenn beispielsweise die Auflösung eines Digitalmultimeters im 4-V-Bereich 1 mV beträgt, bedeutet dies, dass beim Ablesen von 1 V eine Änderung von 1 mV (1/1000 V) beobachtet werden kann.
Wenn Sie eine Mindestlänge von 1/4 Zoll (oder 1 Millimeter) messen müssen, dann werden Sie kein Lineal mit einer Mindestskala von 1 Zoll (oder 1 Zentimeter) kaufen. Wenn die Normaltemperatur 30 Grad Celsius beträgt, nützt ein Thermometer, das nur ganze Grad messen kann, wenig. Sie benötigen ein Thermometer mit einer Auflösung von 0,1 Grad.
Die Wörter „Bit“ und „Wort“ werden verwendet, um die Auflösung eines Multimeters zu beschreiben. Sie können nach der Anzahl der auf einem Digitalmultimeter angezeigten Wörter oder Ziffern gruppiert werden.
Ein {{0}}/2-Multimeter kann drei ganze Ziffern (0 bis 9) und eine „halbe Ziffer“ anzeigen (nur eine „1“ wird angezeigt oder bleibt leer). Ein 3 1/2-stelliges Multimeter hat eine hohe Anzeigeauflösung von 1999 Wörtern. Mit einem 4/{10}stelligen Multimeter kann eine Anzeigeauflösung von bis zu 19999 Wörtern erreicht werden. Im Vergleich zu „Bit“ kann die Verwendung von „Zeichen“ die Auflösung eines Multimeters genauer beschreiben. Die Auflösung eines aktuellen 3,5-Bit-Multimeters kann bis zu 3200, 4000 oder 6000 Wörter betragen.
Bei bestimmten Messungen kann ein 3200-Wort-Multimeter eine bessere Auflösung liefern. Wenn Sie beispielsweise eine Spannung von 200 V oder mehr messen möchten, kann ein Word-Multimeter von 1999 nicht 0,1 V messen. Ein 32-Millionen-Messgerät kann bei der Messung von Spannungen bis zu 320 V 0,1 V anzeigen. Vor dem Überschreiten einer Spannung von 320 V entspricht diese Auflösung der eines teureren 20000-Wort-Multimeters.
2. Genauigkeit
Genauigkeit ist der maximal zulässige Fehler, der unter bestimmten Betriebsbedingungen auftritt. Mit anderen Worten bezieht sich die Genauigkeit auf den Grad, in dem der von einem Digitalmultimeter angezeigte Messwert dem tatsächlichen Wert des gemessenen Signals nahe kommt.
Die Genauigkeit eines Digitalmultimeters wird normalerweise als Prozentsatz des Messwerts ausgedrückt. Die Genauigkeit wird durch 1 % des Messwerts dargestellt. Wenn der angezeigte Wert 100 V beträgt, kann der tatsächliche Spannungswert ein beliebiger Wert zwischen 99 V und 101 V sein.
Die technischen Parameter können auch eine Reihe von Bits umfassen, die zu den grundlegenden Genauigkeitsparametern hinzugefügt werden. Dieser Bereich stellt die Anzahl der Wörter dar, in denen sich die Ziffer ganz rechts des angezeigten Werts ändern kann. Auf diese Weise kann die Genauigkeit im obigen Beispiel als „± (1 %+2)“ ausgedrückt werden. Wenn also der angezeigte Wert 100 V beträgt, liegt der tatsächliche Spannungswert zwischen 98,8 V und 101,2 V.
Die Parameter eines Analogmultimeters werden durch den Skalenendwert und nicht durch den Prozentsatz des angezeigten Messwerts bestimmt. Die typische Genauigkeit eines analogen Multimeters beträgt ± 2 % oder ± 3 % des Skalenendwerts. Bei 1/10 Vollausschlag beträgt die Genauigkeit 20 % oder 30 % des Messwerts. Die typische Grundgenauigkeit eines Digitalmultimeters basiert auf Messwerten zwischen ± (0,7 %+1) und ± (0,1 %+1) oder besser.
