Kostensenkung um 53% und 46% weniger Risiko

Die richtige Balance zwischen „zu viel“ und „zu wenig“ Kalibrierung von Messgeräten zu finden, war schon immer eine Herausforderung für alle, die auf präzise Messergebnisse angewiesen sind. Endress+Hauser hat nun zwei neue Methoden zur Optimierung von Kalibrierintervallen entwickelt. Diese haben das Potenzial, das schwer fassbare Kosten-Risiko-Verhältnis in eine optimale Balance zu bringen.

Selbst die genauesten Messgeräte weisen Messfehler auf, die sich in der Regel mit der Zeit erhöhen. Solche Fehler müssen regelmäßig quantifiziert werden, um festzustellen, ob die Messungen zuverlässig genug sind, um ihren Verwendungszweck zu erfüllen. Dies erfüllt die Kalibrierung. Sie ist der Vergleichsprozess der Ausgangswerte eines Messgerätes mit einer bekannten Referenz für eine bestimmte Messgröße. Eine Kalibrierung soll die Messfehler eines vorhandenen Gerätes ermitteln, oft UUT (Unit Under Test) genannt. Sobald die Messfehler bekannt sind, könnte wiederum ein UUT als Referenz zur Kalibrierung eines anderen Instruments verwendet werden. Letztlich führt diese „ununterbrochene Kette“ von Kalibrierungen zurück zu nationalen oder internationalen Primärreferenzen, die so eine Garantie für eine messtechnische Rückverfolgbarkeit schaffen (Abb. 2).

In der Praxis ermöglicht die gemeinsame Referenz für Messungen es, Industrieunternehmen eine Vergleichbarkeit und einen Transfer von Produktrezepturen zu jedem beliebigen Ort der Welt herzustellen. Kalibrierungen ermöglichen es auch, Messgeräte zu verwalten und Messdrifts zu erkennen, die einen negativen Einfluss auf die Einhaltung von Produktrezepturen und auf damit verbundene Produktionsprozesse haben. Dennoch verfolgen viele Unternehmen einen reaktiven Ansatz und kalibrieren nur, wenn sie aufgrund lokaler Anforderungen oder Qualitätsvorgaben dazu gezwungen sind. Selbst in einfachen Prozessen kann über einen längeren Zeitraum hinweg ein kleiner Messfehler leicht zu einer erheblichen Verschwendung von Ressourcen führen (Energieverbrauch, Rohstoffeinsatz, Ausschuss), deren Kosten die einer Kalibrierung bei weitem übertreffen. Werden Sicherheits- und Umweltbelange davon betroffen, sollte die Notwendigkeit von regelmäßigen Kalibrierungen generell außer Frage stehen.

Kalibrierintervalle als Quelle für Mehrwert

Kalibrierungen werden oft eher als kostspieliger Aufwand denn als potenzielle Quelle für Mehrwert wahrgenommen. Es ist daher kein Wunder, dass Kalibrierungen oft „blind nach festgelegten Regeln“ durchgeführt werden, anstatt Regeln anzupassen, um das Produktionsrisiko zu minimieren und mehr Prozesskontrolle zu erhalten. Fixe Kalibrierintervalle sind eine typische Folge dieser starren und veralteten Regeln. Kalibrier­intervalle sollten so gewählt werden, dass bei einem tolerierbaren Risiko ein Messfehler nicht außerhalb eines akzeptablen Bereichs abgedriftet ist.
In der Praxis wird das meist anders gehandhabt: Oft sind Kalibrierintervalle pauschal auf ein Jahr definiert – der Bequemlichkeit halber, da sie sich gut in jährliche Planungszyklen einarbeiten lassen.

Diese Praxis ist so tief verwurzelt, dass oft behauptet wird, dieser Zeitraum sei als Anforderung in der ISO 9001 angegeben. Der Standard besagt jedoch lediglich: „Soweit zur Sicherstellung gültiger Ergebnisse erforderlich, müssen die Messmittel in festgelegten Abständen oder vor dem Gebrauch kalibriert und/oder verifiziert werden.“ Das bedeutet, die Intervalle müssen im Voraus bestimmt und festgelegt werden. Es bedeutet nicht, dass die Intervalle für sämtliche Messinstrumente alle gleich sein sollten. Die einzige andere relevante Anforderung von ISO 9001 für Kalibrierintervalle ist, „deren fortlaufende Eignung von Ressourcen zur Überwachung und Messung sicherzustellen.”

Das beste Intervall ist jenes, welches den Zeitraum, während dessen ein Messgerät „out of tolerance“ (OOT) ist, reduziert und gleichzeitig Betriebskosten minimiert. Leider stehen diese beiden Ziele typischerweise im Widerspruch zueinander. Das eine Extrem wäre, auf Kalibrierungen ganz zu verzichten, um das Kostenziel zu erfüllen, wobei das Risiko im Laufe der Zeit steigt. Das Gegenteil wäre der Fall, wenn täglich kalibriert würde. Das optimale Kalibrierintervall ist demnach der optimale Kompromiss aus Kosten und Risiko (Abb. 3).

Optimum zwischen Risiko und Kosten

Es gibt mehrere Methoden, um geeignete Kalibrierintervalle zu bestimmen; die meisten von ihnen beruhen auf dem „risikobasierten Ansatz“: Dabei wird das akzeptable Risiko definiert und daraus werden die resultierenden Kosten abgeleitet – und nicht umgekehrt. Die optimale ­Balance zwischen Risiko und Kosten kann nun mit zwei verbesserten Methoden gefunden werden. Jede der Methoden bietet Vor- und Nachteile und erfordert unterschiedliche Voraussetzungen.

Bei der ersten Methode wurde eine statis­tische Methode weiterentwickelt. Sie erfordert vergleichsweise wenige Daten und erlaubt eine Vorhersage aus dem letzten Kalibrierergebnis. Dafür werden je nach Gerätetyp, Messtechnologie und Erfahrungswerten verschiedene Zuverlässigkeitsmodelle ausgewählt (Abb. 4). Die Methode legt fest, wie die „normierte Zuverlässigkeit“ durch Zuverlässigkeitskurven (farbige Linien) segmentiert werden. Die entsprechende Zuverlässigkeitskurve wird dann anhand der Messfehler der letzten ausgewählten Kalibrierung ausgewählt. Als nächstes wird ein Zuverlässigkeitsziel Rt angewendet (bestimmt durch die Gerätekritikalität), um den Wert zu finden, an dem sich der Schnittpunkt mit der Zuverlässigkeitskurve ergibt. Daraus folgt das normierte Intervall, aus dem schließlich das neue Kalibrierintervall berechnet wird.

Die Methode lässt sich relativ einfach anwenden erfordert wenig Eingangsdaten wie Kritikalität und Kalibrierwerte, die zudem leicht verfügbar sind. Im Gegensatz dazu verwenden alle bisher bekannten Methoden nur Bestanden-/Nicht bestanden-Ergebnisse und nicht die Kalibrierwerte selbst. Auch dann, wenn Daten nur begrenzt verfügbar sind, ist das Verfahren robust genug, um Kalibrierintervalle zu liefern. Zudem kann die Methode für jeden Gerätetyp angewendet werden, wenn das entsprechende Modell (spezifische Zuverlässigkeitskurven) angewendet wird.

Monte-Carlo-Simulation

Die zweite Methode basiert auf der sogenannten Monte-Carlo-Simulation. Die Methode nutzt die bereits vorliegenden letzten beiden Kalibrierergebnisse und die dort festgestellte Messunsicherheit für eine Messstelle und simuliert mögliche Drifts. Als Ergebnis der Simulation wird eine Wahrscheinlichkeitsdichtefunktion (empirical probability density function, EPDF) erzeugt, die zeigt, wann die Messwertverschiebung den erlaubten Fehler (maxium permissible error, MPE) überschreitet (Abb. 5). Je kritischer die Messstelle ist, desto niedriger sollte der Wert für das überschrittene Signifikanzlevel α sein. Dieser Wert kann direkt über den Kalibrierzeitpunkt beeinflusst werden. Wird früher kalibriert, sinkt α, bei späterer Kalibrierung steigt die Wahrscheinlichkeit, dass die Aktionsgrenze überschritten wird. Das empfohlene Intervall t(α) spiegelt den voraussichtlichen Zeitraum wider, in dem der Fehler mit dem gewählten Vertrauens­niveau in der Toleranz verbleibt.

Die Methode berücksichtigt Faktoren für zusätzliche Informationen (Messunsicherheit, bisherige Kalibrierwerte) und passt sich effektiv der „messtechnischen Gesundheit“ jedes Instruments individuell an, ohne auf große Statistiken zurückgreifen zu müssen. Durch die Aufnahme zusätzlicher Eingangsdaten reagiert sie schneller auf Änderungen der Geräteperformance als andere Methoden. Ihr Nachteil besteht darin, dass sie mehr Informationen erfordert, was zu zusätzlichen Betriebskosten führen kann.

Risiko und Kosten fast halbiert

Bisher durchgeführte Simulationen der oben beschriebenen Verfahren und zahlreiche Praxistests unter realen Bedingungen zeigten, dass im Vergleich zu festen Kalibrierintervallen das Prozessrisiko um 46% und die Kosten um 53% gesenkt werden konnten. Allerdings steigt mit variablen Intervallen die Komplexität des Kalibrier­managements und der Terminplanung für die Kalibrierungen.

Feste (z. B. jährliche) Kalibrierungen lassen sich leichter organisieren und verwalten als flexible. Auf einen Zeitraum verteilte Kalibrierungen erfordern zusätzliche Anstrengungen, um sie in praktische Kalibrierkampagnen zu gruppieren, die sich an Produktionsstillständen oder Wartungsplänen orientieren. Dies bedeutet, dass berechnete Intervalle nicht „wie sie sind“ angewendet werden sollten und dass Intervalle auf der Grundlage von Prozessverfügbarkeit, Umgebungsbedingungen und praktische Überlegungen wie die Einbausituation von Messgeräten gemittelt werden müssen. In der Praxis unterscheiden sich die berechneten Intervalle daher oft von denen, die angewendet werden.

Endress+Hauser begleitet den Optimierungsprozess vollumfänglich. In der Regel wird mit einem Workshop begonnen, in dem der bestehende Kalibrierprozess inklusiver vorhandener Kalibrierintervalle detailliert beschrieben und analysiert wird. Dies beinhaltet auch Methoden und Verfahren zur Definition von Gerätekritikalitäten, MPE und anderer Eingangsvariablen, die sich auf die Genauigkeit neuer Intervalle auswirken und damit auf den gesamten Kalibrieroptimierungsplan.

Wurden bereits Geräte durch den Service des Herstellers kalibriert, werden mit Hilfe der beschriebenen Methoden neue, optimierte Intervalle berechnet und diese dann gemeinsam mit dem Betreiber an operative Vorgaben wie z. B. Anlagenstillstände praxistauglich angepasst. Dieser Zyklus wiederholt sich bei Bedarf nach jeder Kalibrierkampagne, immer in enger Abstimmung mit dem Betreiber. Sämtliche Kalibrier­ergebnisse, berechnete und umgesetzte Intervalle sowie alle weiteren relevanten Daten werden in Dashboards transparent zur Verfügung gestellt und bieten die Basis für eine Reduzierung der Kalibrierkosten bei gleichzeitiger Reduzierung des Risikos, außerhalb von Gerätetoleranzen zu liegen.

Batterietechnologie

Batterie: Materialien, Prozesstechnologien und Anlagen

Batterie: Materialien, Prozesstechnologien und Anlagen

Ob Batterien für die E-Mobilität oder Energiespeicher für die Energiewende – Batteriesystem sind ein Schlüssel für die Elektrifizierung der Gesellschaft.

Themenspotlight

Digitalisierung industrieller Prozesse

Digitalisierung industrieller Prozesse

Die Digitalisierung in der Prozessindustrie ist ein Schlüssel für mehr Effizienz im Anlagenbetrieb, in der Instandhaltung und im Personaleinsatz, für die Kreislaufführung von Rohstoffen und nicht zuletzt zur Senkung der CO2-Emissionen.

Meist gelesen

Photo
05.11.2024 • PraxisberichteChemie

SIL-konforme Sicherheitseinrichtungen für maximalen Schutz in der Prozessindustrie

In der chemischen Industrie spielt die funktionale Sicherheit eine zentrale Rolle, um Risiken für Mensch und Umwelt effektiv zu reduzieren. Dieser Artikel beleuchtet die Prinzipien und Anforderungen von Safety Instrumented Systems (SIS) gemäß den Normen IEC 61508 und IEC 61511. Erfahren Sie, wie SIL-basierte Sicherheitslösungen konzipiert, gewartet und gegen Cyberangriffe geschützt werden, um einen langfristigen, sicheren Betrieb zu gewährleisten.

Photo
04.11.2024 • PraxisberichteReinraum

Gewicht unter Kontrolle - Herstellung von Inkretinmimetika

Abnehmen auf Knopfdruck: Was zunächst zu simpel klingt, um wahr zu sein, ist für Patientinnen und Patienten mit Diabetes Typ 2 und Adipositas dank reger pharmazeutischer Entwicklungstätigkeit Realität. Per Autoinjektor oder Pen verabreichte Inkretinmimetika ermöglichen signifikante Gewichtsreduktionen und bieten eine wichtige Stellschraube zur Bekämpfung von Adipositas sowie der Prävention von Diabetes Typ 2.