Messen von Strom und Spannung
Wurden früher, das heißt in den 1960er- bis 1980er-Jahren, vorwiegend Drehspul- oder Dreheisen-Messinstrumente (Zeigerinstrumente) eingesetzt, so wurden diese fast vollständig durch digitale Messgeräte ersetzt. Viele Amateure behaupten, dass digitale Messinstrumente genauer sind, als die "alten" Drehspul- bzw. Dreheiseninstrumente. Dies ist aber nicht korrekt! Man muss grundsätzlich zwischen zwei Arten der Genauigkeit unterscheiden:
- Die Messgenauigkeit beschreibt die tatsächliche Genauigkeit einer Messung. Die Messgenauigkeit ist von vielen Faktoren abhängig. Grundsätzlich gilt, dass die vom Hersteller angegebene Messgenauigkeit nur dann gilt, wenn (z.B. bei einem Zeigerinstrument) der gewählte Messbereich optimal genutzt wird (Endausschlag): Die Messung einer Spannung von 10V mit einem Messbereich von 200V ist sehr unzuverlässig. In diesem Fall muss immer der grundsätzliche Messfehler noch einmal hinzugezählt werden. Genauso wichtig ist die Einhaltung der vom Hersteller vorgegebenen Umgebungstemperatur. Diese bezieht sich fast immer auf 20°C bzw. 25°C Raumtemperatur. Wenn Messungen beispielsweise in einer Kühlkammer durchgeführt werden, so muss der Messfehler noch einmal addiert werden. Besonders bei Zeigerinstrumenten war auch die Lage des Messgerätes wichtig: Meistens lautete die Vorschrift, dass das Messgerät flach auf eine ebene Fläche gelegt werden musste. Ein unter einem anderen Winkel genutztes Instrument oder gar Messungen "aus der Hand" führten dazu, dass der Messfehler abermals addiert werden musste. In ungünstigen Fällen hatten Geräte der ±2,5%-Klasse somit einen Messfehler von ±10%. Besonders bei Zeigerinstrumenten führte dies zu der abwertenden Bezeichnung "Schätzeisen".
- Aber auch digitale Messinstrumente messen nicht genau. Die Genauigkeit ist abhängig von der sogenannten Quantisierung, die von den Herstellern häufig als ±x Digit angegeben wird. Dies hängt von der Auflösung der Analog-Digital-Wandler ab. So ist ein Messgerät mit einem 12-Bit-A/D-Wandler genauer als eins mit einem 10-Bit-A/D-Wandler. Ein 10-Bit-Gerät quantisiert den Messbereich in 1024 Stufen, während ein 12-Bit-Gerät den gleichen Bereich in 4096 Stufen unterteilt. Ein 12-Bit-Gerät ist demnach um den Faktor 4 genauer!
- Von der Messgenauigkeit grundlegend zu unterscheiden ist die sogenannte Ablesegenauigkeit. Das Ablesen einer Skala "schräg von der Seite" oder ein ideales Ablesen von oben ist bei der Berechnung der Genauigkeit eines gemessenen Wertes sehr wichtig. Bei nicht-idealen Bedingungen kommt hier abermals der Messfehler hinzu. Da sich digitale Messinstrumente leichter ablesen lassen, ist die gute Ablesegenauigkeit digitaler Messinstrumente im Regelfall höher als bei Zeigerinstrumenten.
Sie sehen, dass der Strom gemessen wird, indem das Strommessgerät in den Stromkreis "eingeschleift" wird. Anders verhält es sich mit der Messung der elektrischen Spannung: Das Messgerät wird parallel zum Verbraucher angeschlossen. Um die Messergebnisse nicht zu verfälschen, müssen die Messgeräte besondere Eigenschaften aufweisen:
- Strommessgeräte müssen einen kleinen Innenwiderstand aufweisen.
- Spannungsmessgeräte müssen einen hohen Innenwiderstand aufweisen.
Obwohl das Verstehen dieser Voraussetzungen (vermutlich) erst nach dem Lesen der Kirchhoffschen Gesetze vollständig wird, sollte klar sein, dass sich der elektrische Strom immer den Weg des geringsten Widerstands (diesmal ist der Widerstand nicht im elektrischen Sinne zu verstehen) sucht. Hätte ein Strommessgerät einen hohen Innenwiderstand, so würde gemäß dem Ohmschen Gesetz nach der Formel U = I . R eine hohe Spannung am Messgerät "abfallen". Dies würde alle weiteren Verbraucher beeinflussen. Entsprechend muss ein Spannungsmessgerät einen hohen Innenwiderstand haben, damit der überwiegende Teil des Stromes weiterhin durch den zu messenden Verbraucher fließen kann.