Wie lässt sich die Genauigkeit eines Digitalmultimeters ausdrücken?
Die Genauigkeit eines Digitalmultimeters ist die Kombination aus systematischen und zufälligen Fehlern in den Messergebnissen. Es stellt den Grad der Übereinstimmung zwischen dem gemessenen Wert und dem wahren Wert dar und spiegelt auch die Größe des Messfehlers wider. Generell gilt: Je höher die Genauigkeit, desto kleiner der Messfehler und umgekehrt.
Es gibt drei Möglichkeiten, Genauigkeit auszudrücken:
Genauigkeit=± (a % RDG+b % FS) (2.2.1)
Genauigkeit=± (a% RDG+n Wörter) (2.2.2)
Genauigkeit=± (a% RDG+b% FS+n Wörter) (2.2.3)
In Gleichung (2.2.1) ist RDG der Lesewert (d. h. der Anzeigewert), FS stellt den Skalenendwert dar, der erste Term in Klammern stellt den kombinierten Fehler von A/D-Wandlern und Funktionswandlern (wie Spannungsteiler, Splitter, True-RMS-Wandler) dar und der letztere Term ist der Fehler, der durch die digitale Verarbeitung verursacht wird. In Gleichung (2.2.2) ist n die Änderung des Quantisierungsfehlers, die sich in der letzten Ziffer widerspiegelt. Wenn der Fehler von n Wörtern in einen Prozentsatz des Skalenendwerts umgerechnet wird, ergibt sich die Gleichung (2.2.1). Gleichung (2.2.3) ist ziemlich einzigartig, da einige Hersteller diesen Ausdruck verwenden, wobei einer der letzten beiden Begriffe Fehler darstellt, die durch andere Umgebungen oder Funktionen verursacht werden.
Die Genauigkeit eines digitalen Multimeters ist viel besser als die eines analogen Zeigermultimeters. Am Beispiel des Genauigkeitsindex der Messung des Grundbereichs der Gleichspannung kann er ± 0,5 % für 3,5 Bits, 0,03 % für 4,5 Bits usw. erreichen. Zum Beispiel die Multimeter OI857 und OI859CF. Die Genauigkeit eines Multimeters ist ein wichtiger Indikator, der die Qualität und Verarbeitung des Multimeters widerspiegelt. Bei einem Multimeter mit geringer Genauigkeit ist es schwierig, seine wahre Natur auszudrücken
Der Wert kann leicht zu Messfehlern führen.
Die Genauigkeit hängt vom in der Messung enthaltenen Fehlerwert ab. Die Genauigkeitsangabe wird wie folgt ausgedrückt: „% des Messwerts + % des Bereichs“. In dieser Gleichung ist „% des Messwerts“ proportional zum Messwert, während „% des Bereichs“ der Offsetwert ist. Diese Spezifikationen werden für jeden Messbereich entwickelt. Wenn die Genauigkeit nicht den Anforderungen an die Messauflösung entspricht, hat die Auflösung keinen Einfluss auf die Genauigkeit. Sie können jedoch weiterhin ein Multimeter verwenden, um kleine Änderungen während des Messzeitraums zu überwachen. Wenn Sie beispielsweise ein 10-V-DC-Signal mit einem Multimeter 34401A mit einer Genauigkeit von 1 Jahr und einem Bereich von 10 V messen möchten, beträgt die Genauigkeit 0.0035+0.0005=10 x (0,0035/100)+10 x (0,0005/100)=+/-0,00040. Daher beträgt der Messwert 10,00000, die Genauigkeit beträgt *+/-0,00040, die Auflösung beträgt 0,00001 und der tatsächliche Messwert liegt zwischen 9,9996 und 10,0004
