Kennen Sie die Genauigkeit (Präzision) des Multimeters?
Die Genauigkeit eines Digitalmultimeters ist eine Kombination aus systematischen und zufälligen Fehlern in den Messergebnissen. Sie gibt den Grad der Übereinstimmung zwischen Messwert und wahrem Wert an und spiegelt auch die Größe des Messfehlers wider. Generell gilt: Je höher die Genauigkeit, desto kleiner der Messfehler und umgekehrt.
Es gibt drei Möglichkeiten, die Genauigkeit auszudrücken:
Genauigkeit=± (ein Prozent RDG plus b Prozent FS) (2.2.1)
Genauigkeit=± (ein Prozent RDG plus n Wörter) (2.2.2)
Genauigkeit=± (ein Prozent RDG plus b Prozent FS plus n Wörter) (2.2.3)
In der Formel (2.2.1) ist RDG der Lesewert (d. h. der Anzeigewert), FS stellt den Skalenendwert dar und das vorherige Element in den Klammern stellt den A/D-Wandler und den Funktionswandler dar (z. B Spannungsteiler, Shunt, Echteffektivwertwandler), letzteres ist der Fehler aufgrund der Digitalisierung. In der Formel (2.2.2) ist n der Änderungsbetrag, der sich in der letzten Ziffer des Quantisierungsfehlers widerspiegelt. Wenn der Fehler von n Wörtern in einen Prozentsatz des Skalenendwerts umgerechnet wird, erhält er die Formel (2.2.1). Formel (2.2.3) ist etwas Besonderes. Einige Hersteller verwenden diesen Ausdruck, und eines der letzten beiden Elemente stellt den Fehler dar, der durch andere Umgebungen oder Funktionen verursacht wird.
Digitalmultimeter sind weitaus genauer als analoge Analogmultimeter. Nehmen wir als Beispiel den Genauigkeitsindex des Grundbereichs für die Gleichspannungsmessung: 3,5 Stellen können ± 0,5 Prozent erreichen, 4,5 Stellen können 0,03 Prozent usw. erreichen. Beispiel: OI857 und OI859CF Multimeter. Die Genauigkeit des Multimeters ist ein sehr wichtiger Indikator. Es spiegelt die Qualität und Prozessfähigkeit des Multimeters wider. Für ein Multimeter mit geringer Genauigkeit ist es schwierig, den tatsächlichen Wert auszudrücken, was leicht zu Fehleinschätzungen bei der Messung führen kann.
Auflösung (Auflösung)
Der Spannungswert, der der letzten Ziffer des Digitalmultimeters im niedrigsten Spannungsbereich entspricht, wird als Auflösung bezeichnet und spiegelt die Empfindlichkeit des Messgeräts wider. Die Auflösung digitaler Digitalinstrumente nimmt mit zunehmender Anzeigeziffer zu. Die höchsten Auflösungsindikatoren, die Digitalmultimeter mit unterschiedlichen Ziffern erreichen können, sind unterschiedlich, zum Beispiel: 100 μV für Multimeter mit 3 1/2 Ziffern.
Der Auflösungsindex des Digitalmultimeters kann auch nach Auflösung angezeigt werden. Die Auflösung ist der Prozentsatz der kleinsten Zahl (außer Null), die das Messgerät anzeigen kann, zur größten Zahl. Beispielsweise beträgt die minimale Anzahl, die von einem allgemeinen {{0}}/2-stelligen Digitalmultimeter angezeigt werden kann, 1, und die maximale Anzahl kann 1999 sein, sodass die Auflösung gleich 1/ ist. 1999≈0,05 Prozent.
Es sollte darauf hingewiesen werden, dass Auflösung und Genauigkeit zu zwei unterschiedlichen Konzepten gehören. Ersteres charakterisiert die „Empfindlichkeit“ des Instruments, also die Fähigkeit, kleinste Spannungen zu „erkennen“; Letzteres spiegelt die „Genauigkeit“ der Messung wider, also den Grad der Übereinstimmung zwischen dem Messergebnis und dem wahren Wert. Es besteht kein notwendiger Zusammenhang zwischen den beiden, daher können sie nicht verwechselt werden, und die Auflösung (oder Auflösung) sollte nicht mit Ähnlichkeit verwechselt werden. Die Genauigkeit hängt vom Gesamtfehler und Quantisierungsfehler des internen A/D-Wandlers und Funktionswandlers des Instruments ab. Aus messtechnischer Sicht ist die Auflösung ein „virtueller“ Indikator (der nichts mit dem Messfehler zu tun hat) und die Genauigkeit ein „realer“ Indikator (sie bestimmt die Größe des Messfehlers). Daher ist es nicht möglich, die Anzahl der Anzeigestellen beliebig zu erhöhen, um die Auflösung des Instruments zu verbessern.






