Wer den im Display eines Multimeters angezeigten Messwert einer beliebigen Gleichgröße (z.B. der konstanten Spannung einer Batterie) über einen gewissen Zeitraum beobachtet, wird feststellen, dass sich mitunter die letzten numerischen Stellen mehr oder weniger zufällig laufend verändern. Die Ursachen liegen hierbei typischerweise in elektronischen Rauschvorgängen des analogen Schaltungsteils des Multimeters sowie in elektromagnetischen Einstreuungen der wie eine Antenne wirkenden Anschlussleitungen. Gleiches gilt generell für die meisten Messprozesse, insofern analoge elektrische Signale zu verarbeiten sind, also auch für sämtliche Systemlösungen mit z.B. PC-Messkarten bzw. -modulen.

Aufgrund der statistischen Natur dieser physikalischen Vorgänge lässt sich der genaue Anzeigewert dieser „fließenden“ letzten numerischen Stellen nicht vorhersagen. Wer sich jedoch die Mühe macht, eine größere Anzahl bis auf die letzte Stelle nach und nach vom Display abgelesener (oder per Software von einem Messmodul in eine PC-Applikation eingelesener) Messwerte zu notieren, kann eine gewisse statistische Gesetzmäßigkeit erkennen.

Bild 12 zeigt hierzu die grafische Auswertung einer höheren Anzahl von nacheinander gewonnenen Messwerten xa einer entsprechend gestörten Gleichgröße in Form einer sog. Wahrscheinlichkeitsdichtefunktion f(xa), auch „Wahrscheinlichkeitsverteilung“ genannt. f(xa) ist hierbei über die Wahrscheinlichkeit w definiert, mit der ein einzelner Messwert Xa in einem infinitesimal kleinen Bereich dxa um xa herum liegt gemäß

(Formel 18)

Die Fläche unter der Kurve f(xa) ergibt stets 1, entsprechend einer Wahrscheinlichkeit von 1:

(Formel 19)
Bild 12: Wahrscheinlichkeitsverteilung bei Messungen einer Gleichgröße

In der messtechnischen Praxis kann man mit dieser Definition einer sog. stetigen Dichtefunktion nicht direkt arbeiten. Man zählt vielmehr, wie häufig ein einzelner Messwert Xa in einem gewissen Bereich Δxa um xa herum liegt, wozu man den gesamten Bereich, in dem man Messwerte beobachtet, in Klassen der Breite Δxa einteilt. Die jeweilige Anzahl an Messwerten pro Klasse dividiert durch die Gesamtzahl der Messungen ergibt dann einen Wahrscheinlichkeitswert für die betreffende Klasse. Über den Mittelwert jeder Klasse als Graph aufgetragen, erhalten wir eine quasi-stetige Dichtefunktion. Nach diesem Prinzip wurde auch der Graph in Bild 12 gewonnen. Der von der xa-Achse überstrichene Messbereich wurde hierzu in 100 Klassen eingeteilt; insgesamt wurden 1.000 Messungen vorgenommen.

Aus im allgemeinen Fall N Messwerten können die aus der Statistik bekannten Kenngrößen linearer Mittelwert

(Formel 20)

und Standardabweichung

(Formel 21)

berechnet werden, welche in Bild 12 ebenfalls eingezeichnet wurden.

Die überwiegende Mehrzahl solcher Verteilungen in der Messtechnik nähert sich für größere N zumindest grob der bekannten Normalverteilung (auch Gaußverteilung genannt) mit ihrer charakteristischen Glockenform an. Bei einer echten Normalverteilung liegen

  • 68,3 % aller Messwerte in einem Bereich von ±s,
  • 95,5 % aller Messwerte in einem Bereich von ±2s,
  • 99,7 % aller Messwerte in einem Bereich von ±3s

um den Mittelwert. Im Abstand ±s vom Mittelwert liegen bei der Normalverteilung zudem die Wendepunkte des Graphen.

Die Normalverteilung reicht von -∞ bis +∞. In der Praxis wird man dies jedoch nicht beobachten, die reale Glockenkurve wird in ihrer Breite begrenzt sein: Sie wird letztlich gegenüber dem Original seitlich etwas „eingedrückt“. Deshalb geht der Messtechniker davon aus, dass innerhalb eines Bereichs von ±3s um den Mittelwert praktisch alle vorkommenden Messwerte liegen. Die bei einer derartigen Messung auftretende statistische Messabweichung beträgt im worst case also

(Formel 22)

Dieses e ist für uns zunächst aber nur eine theoretische Größe. Wenn wir, um beim Eingangsbeispiel des Multimeters zu bleiben, nur einen einzelnen Messwert ablesen, haben wir keinerlei Kenntnis über s und können somit auch e nicht abschätzen. Um e für einen bestimmten Messaufbau abzuschätzen, kann man jedoch im Rahmen der Erstinbetriebnahme bei einem typischen konstanten (!) Wert der Messgröße eine größere Anzahl N von Einzelmessungen über einen angemessenen Zeitraum durchführen und aus den Messwerten gemäß (21) mit (20) s und schließlich über (22) e ermitteln. Die Statistik lehrt, dass man z.B. bei N = 100 eine annähernd korrekte Abschätzung erhält (mit nur noch ca. 8 % Abweichung). Wichtig ist, dass der zeitliche Abstand zwischen zwei Einzelmessungen zur „Veränderungsgeschwindigkeit“ der hinter dem statistischen Effekt liegenden physikalischen Prozesse passt. Die Messwerte müssen die Chance haben, sich zwischen den Einzelmessungen ändern zu können: Man darf keinesfalls mit zu hoher Messrate die Einzelmessungen takten.

Das so gewonnene e kann nunmehr für alle zukünftigen Messungen als gute Abschätzung der statistischen Messabweichung verwendet werden. Vorausgesetzt wird dabei, dass sich weder der Messaufbau selbst noch jedwede Einflusseffekte mit statistischem Charakter ändern. Zum Beispiel dürfen keine Kabelführungen verändert werden oder neue elektromagnetische Störquellen auftreten. Auch nimmt man dabei an, dass sich die statistischen Effekte annähernd unabhängig vom Messwert auswirken und einfach additiv überlagert werden.

Der Leser wird möglicherweise an dieser Stelle einwenden, dass ihm die bloße Kenntnis von e an sich bei seiner Messaufgabe noch nicht hilft. Er sucht vielmehr nach einer Möglichkeit, die statistische Messabweichung zumindest um einen substanziellen Anteil zu minimieren. Obiges Wissen um die Verteilung des Messwertes können wir nun auch hierfür nutzen. Immer dann, wenn im normalen Messbetrieb eine Messung zeitlich ansteht, führen wir eine Sequenz von N Einzelmessungen – die Messgröße muss auch hier unverändert bleiben! – durch und berechnen uns aus den zugehörigen N Messwerten den Mittelwert gemäß (20). Für den zeitlichen Abstand zwischen zwei Einzelmessungen gilt oben gesagtes. Der Vorgang ist also identisch zur oben beschriebenen Messsequenz im Rahmen der Ermittlung von s bzw. e bei der Erstinbetriebnahme, nur dass jetzt der gemittelte Messwert selbst unser Ziel ist. Wenn nur diese Korrekturmaßnahme gefragt ist, müssen wir natürlich bei der Erstinbetriebnahme e auch gar nicht bestimmen.

Bei manuell abzulesenden Messwerten z.B. im Display eines Labormessgeräts macht man dies fast automatisch, indem man die sich kontinuierlich verändernden letzten numerischen Stellen „ausblendet“ und nur die Stellen zuvor protokolliert. Der so gewonnene Wert entspricht zwar nicht exakt dem Mittelwert, ist jedoch meist schon recht gut teilkorrigiert. Eine rein manuelle Ablesung vieler Messwerte bis zur letzten Stelle wäre hier auch sehr aufwendig. Hat man es mit einer softwaregesteuerten Messung zu tun, so ist dies deutlich einfacher zu realisieren, in dem man in der Messapplikation einfach eine zeitgesteuerte Schleife für N Einzelmessungen programmiert. Bei der Festlegung von N wird man hier stets einen Kompromiss zwischen statistischer Güte (hohes N) und benötigter Messzeit (niedriges N) finden müssen.

Zur Beurteilung ist folgender Zusammenhang hilfreich: Man kann zeigen, dass die aus N Einzelmessungen gewonnenen Mittelwerte – wir nehmen auch hier eine konstante Messgröße an, der nur statische Schwankungseffekte überlagert sind – ihrerseits auch einer Normalverteilung unterliegen. Jede Sequenz aus N Einzelmessungen liefert einen jeweils anderen Mittelwert. Die zugehörige Standardabweichung ist jedoch deutlich kleiner als die Standardabweichung s der Einzelmessungen. Es gilt:

(Formel 23)

Für N = 10 ergibt sich beispielsweise bereits eine Reduktion der Standardabweichung und damit auch der statistischen Messabweichung e auf etwa 31,6 %, also grob um den Faktor 3. Für N = 100 wären es nur noch exakt 10 %, was einer Verbesserung um den Faktor 10 entspricht.

Menü schließen