Quels sont les paramètres techniques et les méthodes de mesure des multimètres numériques
1. Résolution, nombre de mots et nombre de bits
La résolution fait référence à la capacité d'un multimètre à distinguer les petits signaux pendant la mesure. Connaître la résolution d'un multimètre peut déterminer s'il peut observer de petits changements dans le signal mesuré. Par exemple, si la résolution d'un multimètre numérique sur une plage de 4 V est de 1 mV, cela signifie qu'il peut observer un changement de 1 mV (1/1000 V) lors de la lecture de 1 V.
Si vous devez mesurer une longueur minimale de 1/4 de pouce (ou 1 millimètre), vous n'achèterez pas de règle avec une échelle minimale de 1 pouce (ou 1 centimètre). Si la température normale est de 98,6 degrés Fahrenheit, un thermomètre qui ne peut mesurer que des degrés entiers est de peu d’utilité. Vous avez besoin d'un thermomètre avec une résolution de 0,1 degrés.
Les mots « bit » et « mot » sont utilisés pour décrire la résolution d'un multimètre. Ils peuvent être regroupés selon le nombre de mots ou de chiffres affichés sur un multimètre numérique.
Un multimètre {{0}}/2 peut afficher trois chiffres entiers (0 à 9) et un « demi-chiffre » (un seul « 1 » est affiché ou laissé vide). Un multimètre 3 1/2 chiffres a une résolution d'affichage élevée de 1999 mots. Une résolution d'affichage allant jusqu'à 19999 mots peut être obtenue sur un multimètre à 4/4-chiffres. Par rapport au « bit », l’utilisation du « caractère » peut décrire avec plus de précision la résolution d’un multimètre. La résolution d'un multimètre actuel de 3 bits et demi peut atteindre 3 200, 4 000 ou 6 000 mots.
Pour certaines mesures, un multimètre de 3200 mots peut fournir une meilleure résolution. Par exemple, si vous souhaitez mesurer une tension de 200 V ou plus, un multimètre de 1999 mots ne peut pas mesurer 0,1 V. Un compteur de 32 millions peut afficher 0,1 V lors de la mesure de tensions jusqu'à 320 V. Avant de dépasser une tension de 320V, cette résolution est la même que celle d'un multimètre de 20 000 mots plus cher.
2. Précision
La précision est l'erreur maximale admissible qui se produit dans des conditions de fonctionnement spécifiques. En d’autres termes, la précision fait référence au degré auquel la valeur mesurée affichée par un multimètre numérique est proche de la valeur réelle du signal mesuré.
La précision d'un multimètre numérique est généralement exprimée en pourcentage de la lecture. La précision est représentée par 1% de la lecture. Si la lecture affichée est de 100 V, la valeur réelle de la tension peut être n'importe quelle valeur comprise entre 99 V et 101 V.
Les paramètres techniques peuvent également inclure une plage de bits ajoutés aux paramètres de précision de base. Cette plage représente le nombre de mots dans lesquels le chiffre le plus à droite de la valeur affichée peut changer. De cette façon, la précision dans l'exemple ci-dessus peut être exprimée par "± (1%+2)". Par conséquent, si la valeur affichée est de 100 V, la valeur réelle de la tension sera comprise entre 98,8 V et 101,2 V.
Les paramètres d'un multimètre analogique sont déterminés par l'erreur à pleine échelle, plutôt que par le pourcentage de la lecture affichée. La précision typique d'un multimètre analogique est de ± 2 % ou ± 3 % de la pleine échelle. À 1/10 pleine échelle, la précision devient 20 % ou 30 % de la lecture. La précision de base typique d'un multimètre numérique est basée sur des lectures comprises entre ± (0,7 %+1) et ± (0,1 %+1) ou mieux.
