Der Inhalt des Messbereichs und der Messrate eines Digitalmultimeters
Messbereich
In einem multifunktionalen Digitalmultimeter verfügen verschiedene Funktionen über entsprechende Maximal- und Minimalwerte, die gemessen werden können.
Messrate
Die Häufigkeit, mit der ein Digitalmultimeter die pro Sekunde gemessene Strommenge misst, wird als Messrate bezeichnet und hat die Einheit „Zeiten/s“. Sie hängt hauptsächlich von der Umwandlungsrate des A/D-Wandlers ab. Einige tragbare Digitalmultimeter verwenden Messzyklen geben die Geschwindigkeit der Messung an. Die Zeit, die zum Abschluss eines Messvorgangs benötigt wird, wird als Messzyklus bezeichnet.
Es besteht ein Widerspruch zwischen Messrate und Genauigkeitsindikatoren. Normalerweise ist die Messrate umso niedriger, je höher die Genauigkeit ist, und es ist schwierig, beides in Einklang zu bringen. Um diesen Widerspruch zu lösen, können am selben Multimeter unterschiedliche Anzeigeziffern oder Messgeschwindigkeitsumwandlungsschalter eingestellt werden: Fügen Sie ein schnelles Messgetriebe hinzu, das für A/D-Wandler mit schnellerer Messgeschwindigkeit verwendet wird; Durch die Reduzierung der Anzahl der Anzeigestellen, um die Messrate erheblich zu erhöhen, ist diese Methode in der Anwendung relativ häufig und kann den Anforderungen verschiedener Benutzer an die Messrate gerecht werden.
Einführung in die Auflösung digitaler Multimeter
Der Spannungswert, der dem letzten Wort im niedrigsten Spannungsbereich eines Digitalmultimeters entspricht, wird als Auflösung bezeichnet und spiegelt die Empfindlichkeit des Instruments wider. Die Auflösung digitaler Instrumente steigt mit der Anzahl der angezeigten Ziffern. Die höchsten Auflösungsindikatoren, die ein Digitalmultimeter mit unterschiedlichen Ziffern erreichen kann, sind unterschiedlich.
Der Auflösungsindex eines Digitalmultimeters kann auch anhand der Auflösung angezeigt werden. Die Auflösung bezieht sich auf den Prozentsatz der minimalen Zahl (ohne Null), die das Instrument anzeigen kann, zur maximalen Zahl.
Es sollte darauf hingewiesen werden, dass Auflösung und Genauigkeit zu zwei unterschiedlichen Konzepten gehören. Ersteres charakterisiert die „Empfindlichkeit“ des Instruments, also die Fähigkeit, kleine Spannungen zu „erkennen“; Letzteres spiegelt die „Genauigkeit“ der Messung wider, also den Grad der Übereinstimmung zwischen den Messergebnissen und dem wahren Wert. Die beiden hängen nicht unbedingt zusammen, daher können sie nicht verwechselt werden, geschweige denn fälschlicherweise annehmen, dass die Auflösung (oder Auflösung) der Genauigkeit ähnelt, die vom umfassenden Fehler und Quantisierungsfehler des internen A/D-Wandlers und des Funktionswandlers des Instruments abhängt . Aus messtechnischer Sicht ist die Auflösung der „virtuelle“ Indikator (unabhängig vom Messfehler), während die Genauigkeit der „echte“ Indikator ist (der die Größe des Messfehlers bestimmt). Daher ist es nicht möglich, die Anzahl der Anzeigestellen willkürlich zu erhöhen, um die Auflösung des Instruments zu verbessern.
