Einführung in die Genauigkeit digitaler Multimeter
Genauigkeit bezieht sich auf den maximal zulässigen Fehler in einer bestimmten Nutzungsumgebung. Mit anderen Worten: Präzision dient der Angabe
Die Nähe zwischen dem Messwert des Digitalmultimeters und dem tatsächlichen Wert des gemessenen Signals.
Bei DMMs wird die Genauigkeit normalerweise als Prozentsatz des Messwerts ausgedrückt. Die Bedeutung einer Ablesegenauigkeit von 1 Prozent lautet beispielsweise: Wenn die Anzeige des Digitalmultimeters 100.0V beträgt, kann die tatsächliche Spannung zwischen 99,0 V und 101,0 V liegen .
In der Spezifikation können bestimmte Werte zur Grundgenauigkeit hinzugefügt werden. Seine Bedeutung ist die Anzahl der Wörter, die hinzugefügt werden müssen, um das äußerste rechte Ende der Anzeige zu transformieren. Im vorherigen Beispiel könnte die Genauigkeit als ±(1 Prozent plus 2) angegeben werden. Wenn das GMM also 100,0 V anzeigt, liegt die tatsächliche Spannung zwischen 98,8 V und 101,2 V.
Die Genauigkeit eines analogen Messgeräts wird auf der Grundlage des Skalenendwerts berechnet, nicht des angezeigten Messwerts. Die typische Genauigkeit analoger Messgeräte beträgt ±2 Prozent oder ±3 Prozent des Skalenendwerts. Die typische Grundgenauigkeit eines DMM liegt zwischen ±(0,7 Prozent plus 1) und ±(0,1 Prozent plus 1) des Messwerts oder sogar höher.
