Einführung in die Subvariationsrate und Genauigkeit digitaler Multimeter
Auflösung
Die Auflösung bezieht sich darauf, wie gut eine Uhr misst. Wenn Sie die Auflösung eines Messgeräts kennen, können Sie feststellen, ob Sie kleine Änderungen im gemessenen Signal erkennen können. Wenn das DMM beispielsweise eine Auflösung von 1 mV im 4-V-Bereich hat, können Sie bei der Messung eines Signals von 1 V eine kleine Änderung von 1 mV (1/1000 Volt) erkennen.
Wenn Sie weniger als 1/4 Zoll (oder 1 mm) messen, verwenden Sie auf keinen Fall ein Lineal mit Zoll (oder Zentimetern). Wenn die Temperatur 38,6 Grad Celsius beträgt, ist es sinnlos, sie mit einem Thermometer zu messen, das nur ganzzahlige Markierungen hat. Sie benötigen ein Thermometer mit einer Auflösung von 0,1 Grad F.
Die Anzahl der Ziffern und Wörter wird verwendet, um die Auflösung der Tabelle zu beschreiben. DMMs werden nach der Anzahl der Ziffern und Wörter klassifiziert, die sie anzeigen können.
Eine 3½-stellige Tabelle, die drei vollständige Ziffern von 0 bis 9 und eine halbe Ziffer (nur 1 oder keine) anzeigen kann. Eine dreistellige digitale Tabelle kann eine Auflösung von 1999 Wörtern erreichen. Eine 4-stellige digitale Tabelle kann eine Auflösung von 19999 Wörtern erreichen.
Es ist besser, die Auflösung digitaler Tabellen mit Worten zu beschreiben als mit Bits, und die Auflösung von dreieinhalb digitalen Tabellen wurde auf 3200 oder 4000 Wörter erhöht.
Das digitale Messgerät mit 3200 Zählern bietet für einige Messungen eine bessere Auflösung. Wenn Sie beispielsweise bei einem 1999-Wortmessgerät eine Spannung von mehr als 200 V messen, können Sie nicht 0,1 V anzeigen. Allerdings kann das 3200-word-Digitalmessgerät bei der Messung der Spannung von 320 Volt immer noch 0,1 V anzeigen. Wenn die gemessene Spannung höher als 320 V ist und eine Auflösung von 0,1 V erreicht werden soll, ist ein teureres 20-Wort-Digitalmessgerät erforderlich.
Einführung in die Genauigkeit
Genauigkeit bezieht sich auf den maximal zulässigen Fehler in einer bestimmten Nutzungsumgebung. Mit anderen Worten: Präzision dient der Angabe
Die Nähe des Messwerts des Digitalmultimeters zum tatsächlichen Wert des zu prüfenden Signals.
Bei DMMs wird die Genauigkeit normalerweise in Prozent des Messwerts ausgedrückt. Die Bedeutung einer Ablesegenauigkeit von 1 Prozent lautet beispielsweise: Wenn die Anzeige des Digitalmultimeters 100.0V beträgt, kann die tatsächliche Spannung zwischen 99,0 V und 101,0 V liegen .
In Spezifikationsblättern können der Grundgenauigkeit spezifische Werte hinzugefügt werden. Seine Bedeutung ist die Anzahl der Wörter, die hinzugefügt werden müssen, um das äußerste rechte Ende der Anzeige zu transformieren. Im vorherigen Beispiel könnte die Genauigkeit als ±(1 Prozent plus 2) angegeben werden. Wenn das GMM also 100,0 V anzeigt, liegt die tatsächliche Spannung zwischen 98,8 V und 101,2 V.
Die Genauigkeit eines analogen Messgeräts wird auf der Grundlage des Skalenendwerts berechnet, nicht des angezeigten Messwerts. Die typische Genauigkeit analoger Messgeräte beträgt ±2 Prozent oder ±3 Prozent des Skalenendwerts. Die typische Grundgenauigkeit eines DMM liegt zwischen ±(0,7 Prozent plus 1) und ±(0,1 Prozent plus 1) des Messwerts oder sogar höher.
