Kostensenkung um 53% und 46% weniger Risiko
Die richtige Balance zwischen „zu viel“ und „zu wenig“ Kalibrierung von Messgeräten zu finden, war schon immer eine Herausforderung für alle, die auf präzise Messergebnisse angewiesen sind. Endress+Hauser hat nun zwei neue Methoden zur Optimierung von Kalibrierintervallen entwickelt. Diese haben das Potenzial, das schwer fassbare Kosten-Risiko-Verhältnis in eine optimale Balance zu bringen.
Selbst die genauesten Messgeräte weisen Messfehler auf, die sich in der Regel mit der Zeit erhöhen. Solche Fehler müssen regelmäßig quantifiziert werden, um festzustellen, ob die Messungen zuverlässig genug sind, um ihren Verwendungszweck zu erfüllen. Dies erfüllt die Kalibrierung. Sie ist der Vergleichsprozess der Ausgangswerte eines Messgerätes mit einer bekannten Referenz für eine bestimmte Messgröße. Eine Kalibrierung soll die Messfehler eines vorhandenen Gerätes ermitteln, oft UUT (Unit Under Test) genannt. Sobald die Messfehler bekannt sind, könnte wiederum ein UUT als Referenz zur Kalibrierung eines anderen Instruments verwendet werden. Letztlich führt diese „ununterbrochene Kette“ von Kalibrierungen zurück zu nationalen oder internationalen Primärreferenzen, die so eine Garantie für eine messtechnische Rückverfolgbarkeit schaffen (Abb. 2).
In der Praxis ermöglicht die gemeinsame Referenz für Messungen es, Industrieunternehmen eine Vergleichbarkeit und einen Transfer von Produktrezepturen zu jedem beliebigen Ort der Welt herzustellen. Kalibrierungen ermöglichen es auch, Messgeräte zu verwalten und Messdrifts zu erkennen, die einen negativen Einfluss auf die Einhaltung von Produktrezepturen und auf damit verbundene Produktionsprozesse haben. Dennoch verfolgen viele Unternehmen einen reaktiven Ansatz und kalibrieren nur, wenn sie aufgrund lokaler Anforderungen oder Qualitätsvorgaben dazu gezwungen sind. Selbst in einfachen Prozessen kann über einen längeren Zeitraum hinweg ein kleiner Messfehler leicht zu einer erheblichen Verschwendung von Ressourcen führen (Energieverbrauch, Rohstoffeinsatz, Ausschuss), deren Kosten die einer Kalibrierung bei weitem übertreffen. Werden Sicherheits- und Umweltbelange davon betroffen, sollte die Notwendigkeit von regelmäßigen Kalibrierungen generell außer Frage stehen.
Kalibrierintervalle als Quelle für Mehrwert
Kalibrierungen werden oft eher als kostspieliger Aufwand denn als potenzielle Quelle für Mehrwert wahrgenommen. Es ist daher kein Wunder, dass Kalibrierungen oft „blind nach festgelegten Regeln“ durchgeführt werden, anstatt Regeln anzupassen, um das Produktionsrisiko zu minimieren und mehr Prozesskontrolle zu erhalten. Fixe Kalibrierintervalle sind eine typische Folge dieser starren und veralteten Regeln. Kalibrierintervalle sollten so gewählt werden, dass bei einem tolerierbaren Risiko ein Messfehler nicht außerhalb eines akzeptablen Bereichs abgedriftet ist.
In der Praxis wird das meist anders gehandhabt: Oft sind Kalibrierintervalle pauschal auf ein Jahr definiert – der Bequemlichkeit halber, da sie sich gut in jährliche Planungszyklen einarbeiten lassen.
Diese Praxis ist so tief verwurzelt, dass oft behauptet wird, dieser Zeitraum sei als Anforderung in der ISO 9001 angegeben. Der Standard besagt jedoch lediglich: „Soweit zur Sicherstellung gültiger Ergebnisse erforderlich, müssen die Messmittel in festgelegten Abständen oder vor dem Gebrauch kalibriert und/oder verifiziert werden.“ Das bedeutet, die Intervalle müssen im Voraus bestimmt und festgelegt werden. Es bedeutet nicht, dass die Intervalle für sämtliche Messinstrumente alle gleich sein sollten. Die einzige andere relevante Anforderung von ISO 9001 für Kalibrierintervalle ist, „deren fortlaufende Eignung von Ressourcen zur Überwachung und Messung sicherzustellen.”
Das beste Intervall ist jenes, welches den Zeitraum, während dessen ein Messgerät „out of tolerance“ (OOT) ist, reduziert und gleichzeitig Betriebskosten minimiert. Leider stehen diese beiden Ziele typischerweise im Widerspruch zueinander. Das eine Extrem wäre, auf Kalibrierungen ganz zu verzichten, um das Kostenziel zu erfüllen, wobei das Risiko im Laufe der Zeit steigt. Das Gegenteil wäre der Fall, wenn täglich kalibriert würde. Das optimale Kalibrierintervall ist demnach der optimale Kompromiss aus Kosten und Risiko (Abb. 3).
Optimum zwischen Risiko und Kosten
Es gibt mehrere Methoden, um geeignete Kalibrierintervalle zu bestimmen; die meisten von ihnen beruhen auf dem „risikobasierten Ansatz“: Dabei wird das akzeptable Risiko definiert und daraus werden die resultierenden Kosten abgeleitet – und nicht umgekehrt. Die optimale Balance zwischen Risiko und Kosten kann nun mit zwei verbesserten Methoden gefunden werden. Jede der Methoden bietet Vor- und Nachteile und erfordert unterschiedliche Voraussetzungen.
Bei der ersten Methode wurde eine statistische Methode weiterentwickelt. Sie erfordert vergleichsweise wenige Daten und erlaubt eine Vorhersage aus dem letzten Kalibrierergebnis. Dafür werden je nach Gerätetyp, Messtechnologie und Erfahrungswerten verschiedene Zuverlässigkeitsmodelle ausgewählt (Abb. 4). Die Methode legt fest, wie die „normierte Zuverlässigkeit“ durch Zuverlässigkeitskurven (farbige Linien) segmentiert werden. Die entsprechende Zuverlässigkeitskurve wird dann anhand der Messfehler der letzten ausgewählten Kalibrierung ausgewählt. Als nächstes wird ein Zuverlässigkeitsziel Rt angewendet (bestimmt durch die Gerätekritikalität), um den Wert zu finden, an dem sich der Schnittpunkt mit der Zuverlässigkeitskurve ergibt. Daraus folgt das normierte Intervall, aus dem schließlich das neue Kalibrierintervall berechnet wird.
Die Methode lässt sich relativ einfach anwenden erfordert wenig Eingangsdaten wie Kritikalität und Kalibrierwerte, die zudem leicht verfügbar sind. Im Gegensatz dazu verwenden alle bisher bekannten Methoden nur Bestanden-/Nicht bestanden-Ergebnisse und nicht die Kalibrierwerte selbst. Auch dann, wenn Daten nur begrenzt verfügbar sind, ist das Verfahren robust genug, um Kalibrierintervalle zu liefern. Zudem kann die Methode für jeden Gerätetyp angewendet werden, wenn das entsprechende Modell (spezifische Zuverlässigkeitskurven) angewendet wird.
Monte-Carlo-Simulation
Die zweite Methode basiert auf der sogenannten Monte-Carlo-Simulation. Die Methode nutzt die bereits vorliegenden letzten beiden Kalibrierergebnisse und die dort festgestellte Messunsicherheit für eine Messstelle und simuliert mögliche Drifts. Als Ergebnis der Simulation wird eine Wahrscheinlichkeitsdichtefunktion (empirical probability density function, EPDF) erzeugt, die zeigt, wann die Messwertverschiebung den erlaubten Fehler (maxium permissible error, MPE) überschreitet (Abb. 5). Je kritischer die Messstelle ist, desto niedriger sollte der Wert für das überschrittene Signifikanzlevel α sein. Dieser Wert kann direkt über den Kalibrierzeitpunkt beeinflusst werden. Wird früher kalibriert, sinkt α, bei späterer Kalibrierung steigt die Wahrscheinlichkeit, dass die Aktionsgrenze überschritten wird. Das empfohlene Intervall t(α) spiegelt den voraussichtlichen Zeitraum wider, in dem der Fehler mit dem gewählten Vertrauensniveau in der Toleranz verbleibt.
Die Methode berücksichtigt Faktoren für zusätzliche Informationen (Messunsicherheit, bisherige Kalibrierwerte) und passt sich effektiv der „messtechnischen Gesundheit“ jedes Instruments individuell an, ohne auf große Statistiken zurückgreifen zu müssen. Durch die Aufnahme zusätzlicher Eingangsdaten reagiert sie schneller auf Änderungen der Geräteperformance als andere Methoden. Ihr Nachteil besteht darin, dass sie mehr Informationen erfordert, was zu zusätzlichen Betriebskosten führen kann.
Risiko und Kosten fast halbiert
Bisher durchgeführte Simulationen der oben beschriebenen Verfahren und zahlreiche Praxistests unter realen Bedingungen zeigten, dass im Vergleich zu festen Kalibrierintervallen das Prozessrisiko um 46% und die Kosten um 53% gesenkt werden konnten. Allerdings steigt mit variablen Intervallen die Komplexität des Kalibriermanagements und der Terminplanung für die Kalibrierungen.
Feste (z. B. jährliche) Kalibrierungen lassen sich leichter organisieren und verwalten als flexible. Auf einen Zeitraum verteilte Kalibrierungen erfordern zusätzliche Anstrengungen, um sie in praktische Kalibrierkampagnen zu gruppieren, die sich an Produktionsstillständen oder Wartungsplänen orientieren. Dies bedeutet, dass berechnete Intervalle nicht „wie sie sind“ angewendet werden sollten und dass Intervalle auf der Grundlage von Prozessverfügbarkeit, Umgebungsbedingungen und praktische Überlegungen wie die Einbausituation von Messgeräten gemittelt werden müssen. In der Praxis unterscheiden sich die berechneten Intervalle daher oft von denen, die angewendet werden.
Endress+Hauser begleitet den Optimierungsprozess vollumfänglich. In der Regel wird mit einem Workshop begonnen, in dem der bestehende Kalibrierprozess inklusiver vorhandener Kalibrierintervalle detailliert beschrieben und analysiert wird. Dies beinhaltet auch Methoden und Verfahren zur Definition von Gerätekritikalitäten, MPE und anderer Eingangsvariablen, die sich auf die Genauigkeit neuer Intervalle auswirken und damit auf den gesamten Kalibrieroptimierungsplan.
Wurden bereits Geräte durch den Service des Herstellers kalibriert, werden mit Hilfe der beschriebenen Methoden neue, optimierte Intervalle berechnet und diese dann gemeinsam mit dem Betreiber an operative Vorgaben wie z. B. Anlagenstillstände praxistauglich angepasst. Dieser Zyklus wiederholt sich bei Bedarf nach jeder Kalibrierkampagne, immer in enger Abstimmung mit dem Betreiber. Sämtliche Kalibrierergebnisse, berechnete und umgesetzte Intervalle sowie alle weiteren relevanten Daten werden in Dashboards transparent zur Verfügung gestellt und bieten die Basis für eine Reduzierung der Kalibrierkosten bei gleichzeitiger Reduzierung des Risikos, außerhalb von Gerätetoleranzen zu liegen.