Die Methode zur Bestimmung der Genauigkeit des Multimeters
Wenn das Messgerät mehrere Parameter misst, wie wird die Genauigkeit des Messgeräts bestimmt?
Als Genauigkeitsklasse wird der Absolutwert des maximalen relativen prozentualen Fehlers des Zählers verwendet, wobei gilt:
Die Genauigkeit des Primärstandards beträgt: {{0}}.005, 0,02, 0,05.
Die Genauigkeit des sekundären Standardinstruments beträgt: {{0}}.1, 0.2, 0.35, 0,5.
Die Genauigkeit allgemeiner Industrieinstrumente beträgt: {{0}}.1, 0.2, 0.5, 1.0, 1.5, 2.5, 5.0
Relativer prozentualer Fehler=(gemessener Wert des gemessenen Parameters – Standardwert des gemessenen Parameters) ÷ (die obere Grenze der Skala – die untere Grenze der Skala) × 100 Prozent .
Die Genauigkeitsklasse wird durch den zulässigen Fehler als Prozentsatz des Skalenwerts der Skala geteilt. Je größer der Bereich, desto größer ist der zulässige Fehler des Absolutwerts des gemessenen Druckwerts für das gleiche Genauigkeitsniveau. Die üblicherweise verwendete Genauigkeit beträgt 2,5 und 1,5. Wenn es 1.0 und 0.5 ist, gehört es zu hoher Genauigkeit. Jetzt haben einige Zahlen 0.25 erreicht.
Die Fehlerdarstellung wird unterteilt in: Bezugsfehler, relativer Fehler, absoluter Fehler.
Referenzfehler=(maximaler absoluter Fehler/Messbereich) × 100 Prozent
Beispiel: 2 Prozent FS
Relativer Fehler=(maximaler absoluter Fehler / Gerätemesswert) × 100 Prozent
Beispiel: Kleiner oder gleich 2 Prozent, der absolute Fehler gibt an, wie stark der Fehler vom wahren Wert abweicht.
Beispiel: Kleiner oder gleich ±0,01 m3/s
Unter normalen Einsatzbedingungen wird die Genauigkeit der Messergebnisse des Instruments als Genauigkeit des Instruments bezeichnet. Um die Qualität des Instruments auszudrücken, wird bei der industriellen Messung normalerweise der Genauigkeitsgrad verwendet, um die Genauigkeit des Instruments anzugeben. Das Genauigkeitsniveau ist der maximale Referenzfehler abzüglich positiver, negativer und prozentualer Vorzeichen.
Die Genauigkeitsklasse ist einer der wichtigsten Indikatoren, um die Qualität des Instruments zu messen. Die Noten für Industrieinstrumente in meinem Land sind in sieben Noten unterteilt: {{0}}.1, 0.2, 0.5, 1.0, 1.5 , 2,5 und 5,0 und sind auf der Skala oder dem Typenschild des Instruments angegeben. Die Genauigkeit des Instruments wird üblicherweise als Präzision bezeichnet, und das Genauigkeitsniveau wird üblicherweise als Präzisionsniveau bezeichnet.
Messgenauigkeit=(maximaler absoluter Fehler/Messbereich) * 100 Prozent .
Wenn wir den absoluten Wert der obigen Berechnungsformel nehmen und Prozent entfernen, sehen wir die Genauigkeitsstufe.
Die Instrumentengenauigkeit wird entsprechend der vom Staat festgelegten zulässigen Fehlergröße in mehrere Stufen eingeteilt. Der zulässige Fehler eines bestimmten Instrumententyps bezieht sich auf den maximal zulässigen prozentualen Fehler unter bestimmten normalen Bedingungen.
Die Genauigkeitsstufen der Prozesserkennungs- und Kontrollinstrumente in meinem Land sind {{0}}.005, 0.02, {{ 17}}.1, 0,35, 0,5, 1,0, 1,5, 2,5 und 4. Allgemeine Industriezähler haben eine Abstufung von 0,5 bis 4. Je kleiner die Präzisionszahl, desto höher die Genauigkeit des Messgeräts.
