精度とは、特定の使用環境で許容される最大エラーを指します。つまり、精度は、次の値を示すために使用されます。
DMMの測定が、測定される信号の実際の値にどれだけ近いか。
DMM の場合、精度は通常、読み取りの割合として表されます。例えば、1%の読み取り精度の意味は、デジタルマルチメータの表示が100.0Vの場合、実際の電圧は99.0Vから101.0Vの間にある可能性があります。
詳細な説明の基本精度に特定の値を追加することができます。その意味は、ディスプレイの右端を変換するために追加される単語の数です。前の例では、精度は ±(1%+2)としてマークされることがあります。したがって、GMMが100.0Vを読み取る場合、実際の電圧は98.8Vから101.2Vの間になります。
アナログメーターの精度は、表示された測定値ではなく、フルスケールの誤差で計算されます。アナログメーターの典型的な精度は、フルスケールの±2%または±3%です。DMM の一般的な基本的な精度は、読み取り± (0.7%+1) と ± (0.1%+1) の間、またはそれ以上です。