Unterscheidung zwischen Auflösung und Diskriminierung professioneller Digitalmultimeter
Ein Multimeter kann als Multimeter bezeichnet werden, und natürlich kann ein Digitalmultimeter auch als Digitalmultimeter bezeichnet werden. Sein englischer Name ist DMM und es ist derzeit ein weit verbreitetes Messgerät. Ein Digitalmultimeter ist in der Lage, die Messwerte direkt in digitaler Form anzuzeigen. Es kann nicht nur verschiedene Arten von Strom und Spannung messen, sondern auch Kapazität und Widerstand messen, verschiedene Dioden identifizieren und deren Qualität erkennen usw. Als nächstes werden wir hauptsächlich die Grundfunktionen eines Multimeters vorstellen - den Unterschied zwischen Auflösung und Auflösung. Lassen Sie uns gemeinsam mit dem Herausgeber etwas Wissen erlernen. Die Auflösung ist die Fähigkeit eines Digitalmultimeters, die minimale gemessene Änderung zu erkennen. Es spiegelt die Empfindlichkeit des Instruments wider und die Auflösung des Instruments variiert in verschiedenen Bereichen. Das Instrument hat die höchste Auflösung im niedrigsten Bereich, der als Auflösungsindex des Digitalmultimeters definiert ist. Manchmal wird die höchste Auflösung auch als Empfindlichkeit eines Instruments bezeichnet. Die Auflösung digitaler Instrumente steigt mit der Anzahl der Anzeigebits. Der Auflösungsindex kann auch durch Auflösung dargestellt werden. Die Auflösung bezieht sich auf den Prozentsatz der minimalen und maximalen Ziffern, die ein Instrument anzeigen kann. Beispielsweise kann das DT8900 31/2-stellige Digitalmultimeter eine minimale Ziffer von 1 und eine maximale Ziffer von 1999 anzeigen, sodass die Auflösung 1/1999 ≈ 0,05 % beträgt. Es sollte darauf hingewiesen werden, dass es einen Unterschied zwischen Auflösung und Auflösung gibt; Beispielsweise ist die Auflösung von 31/2-Bit- und 33/4-Bit-Instrumenten gleich, beide bei 100 μV, aber ihre Auflösungen sind unterschiedlich. Auflösung und Genauigkeit gehören zu zwei unterschiedlichen Konzepten. Die Auflösung charakterisiert die Fähigkeit des Instruments, kleine Signale zu „erkennen“, also seine „Empfindlichkeit“, während die Genauigkeit die „Genauigkeit“ der Messung widerspiegelt, also den Grad der Übereinstimmung zwischen dem Messergebnis und dem wahren Wert. Es besteht kein notwendiger Zusammenhang zwischen den beiden und sie können nicht verwechselt werden. Tatsächlich hängt die Auflösung nur von der Anzahl der Anzeigebits des Instruments ab, während die Genauigkeit vom Gesamtfehler und Quantisierungsfehler des internen A/D-Wandlers und Funktionswandlers des Instruments abhängt. In praktischen Anwendungen sind höhere Genauigkeit und Empfindlichkeit nicht unbedingt besser. Es hängt auch vom konkreten zu testenden Objekt ab, andernfalls ist es Verschwendung.
