デジタルマルチメータの精度の概要
精度とは、特定の使用環境における最大許容誤差を指します。 言い換えれば、精度は次のことを示すために使用されます。
デジタルマルチメータの測定値と測定信号の実際の値の間の近さ。
DMM の場合、精度は通常、読み取り値のパーセンテージとして表されます。 たとえば、読み取り精度 1% の意味は次のとおりです。デジタル マルチメータの表示が 100.0V の場合、実際の電圧は 99.0V ~ 101.0V である可能性があります。 。
仕様では基本精度に特定の値が追加される場合があります。 その意味は、表示の右端を変換するために追加される単語の数です。 前の例では、精度は ±(1 パーセント + 2) として表される場合があります。 したがって、GMM が 100.0V を読み取る場合、実際の電圧は 98.8V ~ 101.2V になります。
アナログ メーターの精度は、表示された読み取り値ではなく、フルスケール誤差に基づいて計算されます。 アナログ メーターの一般的な精度は、フルスケールの ±2 パーセントまたは ±3 パーセントです。 通常、DMM の基本精度は、読み取り値の ±(0.7 パーセント + 1) から ±(0.1 パーセント + 1) の間、またはそれ以上です。
