Kalibrierkurven herstellen, kontrollieren, bewerten.

Polynomiale Interpolation als optimale Methode

Statistische Gütedaten der Kalibrierkurve.

Quantitative Auswertungen sind nach mehreren unterschiedlichen Methoden möglich, z.B. durch innere oder äußere quantitative Standards. Sind in den Proben aber weite Konzentrationsbereiche der zu quantifizierenden Stoffe vorhanden, ist die Anwendung von Kalibrierlinien vorzuziehen.
Kalbrierlinien sind zugleich wichtige Hilfsmittel zur Erkennung möglicher systematischer Fehler in der quantitativen Analyse. In diesem Abschnitt werden Grundlagen und Grenzen von Kalibrierlinien - und die Probleme bei ihrer Ermittlung und Qualitätskontrolle - ausführlich behandelt. Es wird besonders auf mathematisch und chromatographisch unsinnige Konzepte zur Herstellung von “calibration lines” eingegangen. Ein wichtiger Hinweis soll gleich hier gegeben werden: Zwar nennt man Kalibrierlinien so, wie sie eben heißen, aber das bedeutet nicht, dass es sich um gerade Linien handelt. Geradlinige Kalbrierdaten, bei denen die Kalibrier-Gerade auch noch durch den Nullpunkt geht, gibt es in der qualifizierten Chromatographie grundsätzlich nicht. Es gibt dafür zwei Hauptgründe:

1. Chromatographie wirkt immer und überall, wo in Gas oder Flüssigkeiten  lösliche Stoffe mit festen Wänden oder Oberflächen in Berührung kommen.
Einfacher gesagt: Überall und immer sorbieren, adsorbieren oder desorbieren Stoffe an Oberflächen. Sie werden von dort chromatographisch festgehalten oder verdrängt, wenn sich Konzentrationen strömend verändern. Und das passiert schon, wenn Proben genommen, gegeben und dosiert werden, also bereits bevor die beabsichtigte Chromatographie beginnt. Die stofflichen Änderungen vor dem Beginn der eigentlichen Chromatographie sind immer unbeabsichtigt, nur schwer zu beeinflussen und ohne besonderen Aufwand nicht richtig festzustellen. Sie ruinieren nicht selten die Analyse, also verfälschen die Resultate.

2. Es gibt keine Detektoren, die mit konstanter Empfindlichkeit Substanzmengen über weite Bereiche in  physikalische Signale umwandeln.
Einfacher gesagt: es gibt keine geradlinig arbeitende Detektoren. Alle haben einen begrenzten Arbeitsbereich. Eine Mindestmenge Substanz ist nötig, damit ein messbares Signal erzeugt wird. Ab einer oberen Grenzkonzentration gibt es keine weitere Signalvergrößerung mehr. Mit anderen Worten: da “kann” der Detektor nicht mehr.

Im Folgenden verwendete Zeichen:
Im Folgenden werden die Mess-Signale beliebiger Detektoren mit Y [in Ampere oder Volt] bezeichnet, wobei stets davon ausgegangen wird, daß der ursprüngliche echte Signalwert ein Widerstand, eine Lichtmenge, eine Temperatur bzw. extrem kleine Spannungs- oder Stromwerte sein könnten, die verstärkt werden, nachdem die Ursprungssignalwerte  umgewandelt wurden.

Mit X werden die Substanzmengen in Gramm oder in Gramm-pro-Volumen bezeichnet, welche das o.g. Y-Signal erzeugen. Nahezu alle X-Werte müssten eigentlich in Molmengen angegeben werden. Da aber jede Molmenge in Gramm ausgedrückt werden kann, ist die Angabe der X-Werte in Gramm sinnvoll.

Mathematische Formeln - polynomiale Interpolation - Polynomfaktoren:

Die mathematische Formel für eine gerade Linie lautet  Y = A + B*X - siehe Bild 1 oder 2.
A und B sind Konstanten, sie sind die Polynomfaktoren. A ist der Y-Wert der geraden Linie, wenn X = null ist, wenn also im Detektor keine Substanz ankommt. Die Gerade  schneidet also die Y-Achse - die Signalachse - beim Wert A. 
Angenommen, es gäbe wirklich einen “geradlinig” arbeitenden Detektor für eine ix-beliebige Substanz “i”, dann würde man - zumindest für einen begrenzten Mengenbereich der Substanz “i” - eine lineare Kalibrierlinie, also eine “Kalibriergerade” finden. Diese würde - wenn man zwei unterschiedliche Mengen “i” in zwei aufeinanderfolgenden Chromatogrammen vermessen würde, zwei Kalibrierpunkte als X, Y-Paar liefern: den Punkt X1, Y1  für die kleinere Menge “i” und den Kalibrierpunkt X2, Y2 für die größere Menge “i” wie in Bild 2 gezeigt.
Zwei solche Punkte lassen sich geradlinig verbinden, reichen also für die Position (die Lage)  einer Geraden aus. Verlängert man die so gefundene Gerade in Richtung null Gramm X, dann würde in der analytischen Chromatographie die verlängerte Gerade sehr wahrscheinlich die Y-Achse bei einem negativen Wert schneiden, aber auch positive Werte sind möglich-, aber eben nicht bei Y=0; X=0 wie in Bild 2 gezeigt.

Warum ? Weil das Reinigen der Dosierspritze oder -schleife, das stetig strömende Gas in der Gas-Chromatographie, oder die stetig strömende flüssige Phase in der Flüssig-Chromatographie die Oberfläche von Wänden, die Tiefen von Ringspalten, die Partikeloberflächen fester Chromatographiephasen von Sustanz “i” völlig frei gemacht haben und so aus dem Probenstrom beim erneuten Dosieren eine Mindestmenge “i” fest- oder zumindest zurückgehalten wird.

Und wenn die Kalibriersubstanz “i” gar nicht hundertprozentig rein ist ? Das ist fast immer der Fall. Hoffentlich ist die tatsächliche Reinheit (also der richtige Wert der Reinheit) des Stoffes “i” bekannt. Sie möge z.B. bei 98.2 % liegen. Dann hat man nicht w Gramm “i” im dosierten Volumen der Kalibrierlösung, sondern eben nur w*0.982 Gramm.
 Warum soll also bei solchen “Unsicherheiten” die Kalibrierlinie präzise durch den X,Y-Nullpunkt gehen ? Es bedarf somit einer ganzen Reihe von Kontrollen und Korrekturen, ehe die Kalibrierlinie qualifiziert ist.

 

bld2xpfoto

Bild 1 Ein einziges gemessenes Datenpaar Y1, X1 als  Substanzmenge und Signal und die völlig unbegründete Annahme. dass kein Signal entsteht, wenn man nichts dosiert. Es kann durchaus kein Signal entstehen, wenn man “etwas” dosiert.  Ohne Nulldurchgang stimmt nicht einmal die “Tomatenformel” =  Zwei Tomaten kosten 50 cent, wieviel kostet eine ? Diese “Dreierregel” klappt nämlich nicht, wenn sie den Nullpunkt “verpasst”. Hinzu kommt, dass eine solche “Kalibrierlinie” nicht die geringste Information über ihre Qualität besitzt und auch kein entsprechender Wert berechnet werden kann - siehe  weiter unten.

Bild 2   Zwei Datenpaare Y1, X1 und Y2, X2 bestimmen eine Gerade. Diese muss den Y0, X0 - Punkt keineswegs schneiden. Die zwei Messpunkte sollten die Folge von jeweils zwei Dosierungen sein, sodass insgesamt vier Y,X-Wertepaare Basis der Kalibriergeraden sind. Intelligent programmierte Polynomiale-Interpolations-Software akzeptiert Berechnungen mit weniger als vier Datenpaaren nicht. Aber jetzt ist ein Minimum an Wertestatistik möglich. So verfügt der Analytiker über ein Minimum an Qualitätsdaten zur Kalibriergeraden, wenn entsprechend durch einfache Kontrollrechnungen die Datenwerte-Güte geprüft wird- siehe dazu weiter unten.


 Wie schon festgestellt: nutzlos ist eine Kalibriergerade  die man mit einem einzigen X1,Y1-Mess-Punkt erhalten hat. Diese “Einpunkt-Gerade” wird analytisch gefälscht durch die  X=0 ; Y=0 Annahme: siehe Bild 1 oben. Das muss von allen Seiten betrachtet werden, da solche Fälschungen sogar in offiziellen Regulierungen verlangt werden - siehe z.B. Bild 6 unten.
Weil so leicht zu glauben ist, dass null Gramm Substanz  kein Signal erzeugen können , setzt sich diese Fälschung unerkannt in der Praxis fest und die Frage, wie man Null-null-Signale feststellen kann, wird nicht gestellt.

Eine Einpunkt-Kalibrierlinie ist messtechnisch grundsätzlich so sinnlos wie die Einmal-Messung  irgendeiner quantitativen Größe. Es gilt: “wer nur einmal misst, misst Mist”.
Die Mindest- und Grundgrößen jeder Messung sind :
 
         ein Mittelwert m,
         die Wiederholstandardabweichung dieser Messung +- s und
         die Anzahl der wiederholten Messungen N

Mit der Bitte um Nachsicht bei allen Fachkollegen, welche die Fakten zu der “m / s / N” Mindestforderung in der quantitativen Analytik aus dem “ff” kennen, trotzdem dieser Warntext:
Weil diese obige Grundforderung jeder Messtätigkeit Zeit und Arbeit kostet und weil schon die Berechnung der Wiederholstandardabweichung ohne Rechner Mühen macht, ist damit zu rechnen, dass mancherorts nicht oder nicht ausreichend gerechnet wird. (Schon manche kleine Taschenrechner können das).

Hier ein simples Beispiel: mit der Bitte um Entschuldigung:
Hochglanzfotos auf Werbeseiten suggerieren, dass zur Anwendung eines Analysenautomaten “keinerlei Kenntnisse nötig” sind. Der dorthin gestellte “Analysierende” liebt also sicher  Rechnereien kaum, aber muss wenigstens berichten können..
Auftrag: “Messe zwei mal” !  
Messergebnis:  Zwölf (irgendetwas)
Am nächsten Messplatz mit dem gleichen benutzerfreundlichen Automaten wird ebenfalls zweimal gemessen - hoffen wir: die gleiche Probe, exakt die gleiche Aufgabe, streng die gleiche Methodik.
Messergebnis:  Zwölf. (irgendetwas)
Und wer hat recht ? Die eine 12 folgte aus 10 und 14. Den Mittelwert konnte der “Analysierende” tatsächlich ausrechnen: es folgt wirklich der Wert 12. Am anderen Arbeitsplatz wurde eine viel bessere 12 gemessen, nämlich aus 11.85 und 12.15. Nur aus weiteren Rechengrößen folgt eine Qualitätsinformation zum Mittelwert und zur Analyse.
Die Berechnung des zweiten Mittelwertes aus 11.85 und 12.15 macht jetzt zwar mehr Mühe als im ersten Falle aber der richtige Wert liegt wieder bei 12.00
Natürlich sollte man schon bei der schriftlichen Angabe dieses Mittelwertes mit “.00” den Verdacht haben, dass da eine entscheidende Qualitätsangabe fehlt: die (Näherungs-)  Wiederholstandardabweichung +- s. Nun könnte der Auftraggeber rechnen: Standard- Unsicherheit = Mittelwert mal Standardabweichung mal t(95) für N = 2, Dabei folgt: “t(95) ist der “Studentfaktor” abhängig von N und gültig für 95% Wahrscheinlichkeit der Werte.
Erste Standard-Unsicherheit:  w = 12 +- 2.83, N = 2,  z.B. Gew-% mit einer Unsicherheit  von +- 8.99 Gew-% gefunden. Das heisst: im Endergebnis wäre ein  w von 3.0 Gew-% nicht zu unterscheiden von w = 21 Gew-%.
Ein katastrophales Ergebnis, egal, worum es dabei gegangen wäre: um zu verkaufende Tonnen, herzustellende Produkte, einzuhaltende Grenzkonzentrationen. Und das Risiko für systematische Messfehler wäre genau so groß wie die oben genannte Unsicherheit, denn systematische Fehler lassen sich nur so unscharf feststellen wie oben gezeigt. Man kann also garnicht scharf genug messen. Sogar ein berühmter  Hochschullehrer sagte dem Autor nach 40 Jahren Praxis: “das habe ich bisher so noch gar nicht gesehen “!

Zweite Standard-Unsicherheit:  w = 12.00 +- 0.21, N = 2, Unsicherheit 1.89. Das heisst: Am zweiten Messplatz wurde zehn mal schärfer gemessen. Hätte der “Analysierende” am zweiten Messplatz gewusst, dass er lieber vier statt nur zwei Messungen der gleichen Probe hätte durchführen sollen - weil bei N = 4 das Optimum an Mess-Schärfe gegen Aufwand zu erreichen ist, dann hätte  er mit
95 %iger Wahrscheinlichkeit die analytische Unschärfe auf +- 0.4 Einheiten senken können.,

Nun zur möglicherweise zugehörigen Kalibrierlinie:  Nichts von alledem ist in der “Einpunkt-Kalibriergeraden” enthalten. Somit wären ab hier als Güte- Datenminimum für die Kalibrierlinien, auch  die m / s / N - Daten zur Kalibrierlinie hinzuzufügen,  Das wird bald eine Pflichtleistung sein. Auch Kalibrierlinien verlangen Datenstatistik. Das ist Schwerpunkt des weiteren Textes.
Daraus folgt: falls tatsächlich Analysenbedingungen existieren sollten, welche einen geradlinigen Zusammenhang zwischen Produktmenge X für “i” und zugehörigem Signal Y bieten sollten, dann wird die Kalibriergerade nur unter folgenden Voraussetzungen qualifiziert werden können:

Eine Gerade muss mindestens drei - wenn es um analytische Qualität geht: besser sechs X,Y-Wertepaare aufweisen - ziemlich am Anfang der Messbarkeit,  in der Mitte des Arbeitsbereiches und in der Nähe seines Endwertes. Das liefert u.a. auch Standardabweichungen für die Polynomial Konstanten A und B (hier nicht diskutiert) und liefert so ein Datensicherheitsminimum für die Qualität der Kalibriergeraden.
Warum mindestens drei oder (besser) sechs ?  Drei Wertepaare, weit genug auseinander liegend, sind notwendig, weil man nur so erkennen kann, ob Geradlinigkeit wirklich vorliegt. Sechs, weil jeweils wenigstens Doppelbestimmungen der nur drei Kalibrierpunkte und die zugehörigen Statistik-Qualitätsdaten eine Gerade zur Kalibriergeraden qualifizieren.
Der trainierte Praktiker wird erkennen: Geradlinige Analytik ist nur in einem extrem schmalen Konzentrationsbereich möglich. Jeder Flammenionisationsdetektor hat trotz seines weiten Messbereiches eine S-Kurvenförmige Messcharakteristik. Jeder ECD-Detektor misst von Natur aus und von Anfang an ungeradlinig. Kein HPLC-Detektionssystem ist streng linear in mittelweiten Messbereichen und keinesfalls in den vollen Arbeitsbereichen, welche die Chromatographie noch erlaubt aber die Detektion rasch an Grenzen bringt. Besser also gleich praxisgerecht kalibrieren und die Mathematik entscheiden lassen, ob zwei- oder gleich dreigradig gearbeitet werden muss. Die dafür entscheidende Hilfe bietet die polynomiale Interpolation von mindestens fünf, besser neun X,Y Kalibrierpunkten aus mindestens fünf, besser neun unterschiedlichen Kalibrierlösungen unterschiedlicher “i”-Mengen. Im Folgenden wird davon ausgegangen, dass qualifizierte Analytiker Kalibrierlösungen so ansetzen, benutzen, lagern und sicher dosieren können, dass nur die technisch unvermeidbaren Fehler des besten quantitativen Werkzeuges: der analytischen Waage, bleiben.

Die Kalibriergerade in Bild 2 oben macht allerdings den Eindruck, dass sie trotz ihrer nur vier Datenpaare “gut” aussieht.
Hier folgt die Güteanalyse zu Bild 2, ohne dass die Grundlagen zuvor erläutert werden. Prüfen Sie einfach zunächst die folgenden Daten:
Messwerte X (hier in dosierten Milligramm einer Reinstsubstanz “i” und Detektorsignale nach optimaler Verstärkung und bester Rauschunterdrückung:

       X1 (1) =  50.0      Y1 (1) =  480.3     Dosierung / Trennung wiederholt:
       X1 (2) =  50.0      Y1 (2) =  481.1     Zweite Probe, etwas mehr als doppelter Gehalt an“i”:
       X2 (1) = 100.0     Y2 (1) = 1003.2    Wiederholung:
       X2 (2) = 100.0     Y2 (2) = 1002.9

Diese Daten gehen entweder automatisch - bei entsprechender hard-und software - in das Polynomialprogramm oder werden manuell eingegeben. Das Programm prüft die Daten nach dem ersten bis zum fünften Grad Polynom allerdings abhängig von der Zahl der Datenpaare - s.w.u.  - berechnet sofort die Datenqualität - s.w.u. und empfiehlt anschliessend den 2. Grad , weil die Datenzahl für höhere Grade - nämlich Gradzahl plus 2 als Minimum an Datenpaaren - nicht vorliegt.
Ergebnisse: Die Polynomfaktoren werden ermittelt:  A = -41.65 (Bild 2 zeigt, dass bei X = 0 Y einen negativen Wert zeigt, also für X = 0 folgt  Y = - 41.65). Der Polynomfaktor B = 10.447. Das Programm kann nun für jeden X-Wert den zugehörigen polynomial interpolierten Y-Wert berechnen und mit dem gemessenen Y-Wert vergleichen. Die Differenz wird gebildet. Der relative Mittelwert der Y(gemessenen) minus Y(berechneten) Werte ist ein Gütemaß für die interpolierte Kalibrier-Kurve (so bezeichnet, auch wenn sie im vorliegenden Fall streng gerade ist). Aber auch die Standardabweichung dieser Differenzen von Y(gemessen) zu Y(berechnet) ist ein Gütemass der vermessenen Kalibrierfunktion. “Wackeln” die Signalwerte über den Dosierungen, wird diese Standardabweichung relativ groß sein. Stimmt die interpolierte Funktion nicht mit der tatsächlichen Kalibrierlinie überein, werden die relativen Differenzen Y(gemessen) zu Y(berechnet) groß sein. Jedenfalls ist das Wertepaar m;c (die relativen Y-Differenzen) und s (die relativen Standardabweichung der Y-Differenzen) 
ein perfektes Qualiätsmass für die Kalibrierlinie.


Im Vorliegenden Fall zu Bild 2 ergibt sich folgendes unter dem Polynomgrad 1:

Messwertepaar    1;     Y (gem) = 480.3   Y (ber)  = 480.700  prozentuale Diff. m;c =   - 0.083 %
                            2                      481.1                    480.700                                        + 0.08  %
                            3                    1003.2                   1003.05                                         + 0.015 %
                            4                    1002.9                   1003.05                                         -  0.015 %
Mittelwert der prozentualen Differenzen:  0.049 %; Standardabweichung : +- 0.039 %

Diese beiden Rechenwerte  0.049 % und +- 0.039 % werden Kalibrierkurven-Qualitätskennzahl genannt und sind eine sehr aussagefähige Qualitätszahl für die Kalibrierkurve. Sie weisen im vorliegenden Fall auf perfekte vierfache Dosierung und ausgezeichnete Quantifizierung von vier stofflich gleichen Peaks hin, deren Konzentrationsunterschiede allerdings sehr gering sind. In diesem recht engen Mengenbereich von “50” bis”100” ist die Kalibrierung optimal, falls die wirkliche Probe an den “i”-Peaks keine Probleme zB durch Substanzüberlappung aufweist. Ist hier nicht der Fall.

WICHTIG: Nie Kalibrierkurven außerhalb des vermessenen Wertes benutzen. Extrapolationen sind mathematisch “illegal” und extrapolierte Analytik ist unprofessionell. Kalibrierkurven müssen auf der Werteachse X (der geprüften Stoffmengen bzw. -konzentrationen)  gemessene Y-Werte aufweisen. Spätestens, wenn Kalibrierkurben dritten Grades notwendig werden, wird man das bildlich sehen und verstehen.
In die Kalbrierkurven-Bewertung gehört nun noch der obere und untere Streubereich hinein, also jener Bereich, in welchem mit 95%iger Sicherheit alle Wertepaare untergebracht sind.

Bei der Bestimmung einer analytischen Größe sind - wie schon erwähnt - die Grunddaten Mittelwert m - Wiederholstandardabweichung +- s und die Anzahl  N der Wiederholmessungen unumgänglich.
Dieses Mindestmaß an Grunddaten ist für eine Kalibrierkurve ebenfalls unumgänglich.
Die aus den Polynomfaktoren berechnete durchgehende Linie entspricht dem analytischen Mittelwert m.  Ohne eine vergleichbare Größe für +- s hat der Anwender keine Information über die Schärfe der Kalibrierwerte, wenn er nicht die oben diskutierten Rechenwerte “Mittelwert der relativen Differenzen gemessen gegen berechnet” kennt und die zugehörige relative mittlere Standardabweichung - siehe das obige Zahlenbeispiel Rechenwerte  wie schon gesehen: m;c =  0.049 % und +- 0.039 %,.
 Aber da die Kalibrierkurve graphisch verstanden und bewertet wird, sollte auch die Messwert-Unschärfe als durchgehende mittlere “laufende Standardunsicherheit” sichtbar sein. Weil die Unschärfe der Kalibrierwerte am besten in Form der “Standard Certainty” (oder wie eine Mehrheit schreibt: “Uncertainty, Unsicherheit”) sichtbar sein sollte, haben wir seit Jahrzehnten mit der graphisch dargestellten “95% Unsicherheit” =  +-s  mal von N abhängigem Studentfaktor t(95)N gearbeitet und hatten damit alle nötige Unterstützung im richtigen Umgang mit Kalibrierkurven.
Bild 3 und 4 zeigen eine Kalibrierkurve zweiten Grades ohne und mit diesem Unsicherheits-Werte-Datenverlauf. Er macht klar: eine Kalibrierkurve ist keineswegs so scharf wie der polynomial interpolierte gerechnete Wertverlauf, sondern so unscharf wie die Gesamt-”Dicke” des Streukurvenbereiches.
In Bild 3 und 4 gilt:     Y = A + B*X + C*X^2

 

COF-RSA-ohnescat
COF-RSA-MitSc2000

Bild 3:

Kalibrierkurve aus vier Datenpaaren mit je vierfacher Dosierung von Koffeinlösungen,
HPLC Trennung

Bild 4:

Gleiche Daten wie
Bild 3, jedoch mit dem beidseitigen 95% Streubereich und den zugehörigen quantitativen Statistikwerten.
Jetzt hat der Analytiker wohl eine recht klare Information, wie “unsicher” die Kalibrierung ist, wenn es auf SICHERHEIT ankommt.
Die Kalibrierkurven-bilder IM vORTRAG
“2010” in der Hauptsite www.interchromforum.com zeigen, daß richtig bewertete Kalibrier- kurven leicht auch systematische Fehler sic htbar machen.
 

IFC-sitet-bld5

Bild 5 links, oberer Teil: Hier sind Kalibrier-daten von Farbstoffen auf einer HPTLC-Platte im Bereich von 3 bis 81 ng getrennt. Die Platte wurde nach noch heute üblichen (standardisierten) Methoden mit einem UV-Scanner quantifiziert. Problem seit 30 Jahren industriell ungelöst: die Platte hat eine unvermeidbare Partikelstruktur, welche im UV Scan messbar ist und die Signaldaten der Substanzen verfälschend überlagert Das Datenmaterial erlaubte nur eine polynomiale Interpolation ersten Grades.

 


Bild 5 links unten:
Der Strukturanteil der Chromatogrammdaten wurde drastisch reduziert entweder durch Abzug (siehe www.interchromforum.com ) oder durch Multiintegration (siehe www.planar-chromatography-by-kaiser.com ). Ergebnis: das EXAKT gleiche Chromatogramm liefert JETZT eine Kalibrierkurve dritten Grades und die Datenqualität der Kalibrierkurve verbesserte sich von
4.25 % +- 4.04 % auf
0.44 % +- 0.23 %
Es handelt sich bei 5 oben um das exakt gleiche Chromato-gramm wie bei 5 unten.

Aus den zwei Kalibrierlinien  Bild 5 oben gegen unten kann man Folgendes lernen:

1.
Wenn die relative Standardabweichung der Datenpaare X und Y groß ist, sollte man an systematische Fehler denken. Es gibt sehr viel mehr unkonstante systematische Fehler in der quantitativen Chromatogtraphie als konstante Fehler, seien es unbekannte Verunreinigungen der zu bestimmenden Stoffe oder unzureichende Trennungen mit auch totaler Überlappung, die man nur sieht, wenn man die Regel - “wer nur einmal misst, misst Mist” nicht auch auf die Trennungstechnik anwendet. So betrachte ich die Anwendung nur eines Trennsystems als so fehlerkritisch wie nur “eine Probe einmal dosiert”. Zwei Proben, je zweimal dosiert bei zwei unterschiedlichen Selektivitäten: das bringt uns der Richtigkeit drastisch näher. Natürlich sollte man die immer noch nicht kommerziell erhältliche elektronische Selektivitätsverstellung in GC und HPLC kennen und beherrschen. Der Umbau kommerzieller Geräte dazu ist einfach genug. Qualifizierte Servicelabors, die darüber Bescheid wissen, sollte es geben. Der Rechner macht die Selektivitatsverstellung (sekundenschnell).Kein mechanischer Säulen-oder Kapillarenwechsel nötig. Ein Drehknopf kann es, oder ein digitaler Befehl. Auto-Polaritätsoptimierung abhängig von dem konkreten Chromatogramm ist möglich !!

2. Die Beseitigung eines so problemlos sichtbaren systematischen Fehlers -wie der Plattenstruktur in der TLC und HPTLC  shiftet  die in manchen Ländern bzw. “Schulen” als halbquantitativ disqualifizierte  Analysenmethode Dünnschicht-Chromatographie auf den Level der mehrheitlichen HPLC von heute - sofern dort noch Opas gepackte 2-3 mm dicke , 100 mm lange gepackte Säule angewendet wird. Jedenfalls bedeutet ein ganzer Faktor zehn  Datenqualitätsverbesserung die Umwandlung einer altbekannten Chromatographiemethode in eine ganz neue Technik. In diesem Zusammenhang ist sehr deutlich, wie falsch eine  Methodenregulierung ist, welche zB TLC und HPTLC nicht kennt. Hinweis: die neue µ-PLC ist wieder eine andere neue Methode,. Es ist die erste Methode, welche ohne äußere Statistik auskommt, sofern es um einen Produktvergleich geht und die zu vergleichenden Produkte sich sichtbar unterscheiden. Die so festgestellte Produkt-Ungleichheit ist dann 100 %ig sicher. Die Gründe sind ausführlich in dem zugehörigen Internetbuch dargestellt.

3. Das systematisch fehlerbelastete Datenmaterial zu Bild 5 oben erlaubt keine andere als nur eine eindimensionale Polynomial-Interpolation. Nach Fehlerreduzierung oder Beseitigung kommt die methodisch richtige Kalibrierkurvenstruktur, hier für HPTLC trotz sehr niedrigem (ng-) Probengewicht - die notwendige Kurve dritten Grades in Bild 5 unten zum Tragen. Es wurden keine Datenumwandlungen vorgenommen. Die polynomiale Interpolation setzt voraus, dass die Mengenskala (X) fehlerfrei ist. In meinem ganzen Berufsleben habe ich nie eine Auswertung von Daten zu Kalibrierlinien gesehen, bei der die Polynomiale Interpolation nicht das beste Konzept war.

Praxisfall mit besonders qualifizierten Instrumenten
Es gibt inzwischen HPLC-Instrumente, welche temperaturkonstante Fix-Volumen-Flüssigdosierer besitzen. Wiederholstandardabweichungen von vier Dosierungen der gleichen Probe erreichen Werte von +- 0.05 % bei zB 100 nl einer gut detektierbaren Testsubstanz.
Unter solchen Bedingungen können Kalibrierkurven mit steigenden Konzentrationen einer Substanz “i” problemlos mit nur je einer Dosierung nach jeweils kontrolliert vollständiger Durchspülung mit der jeweiligen nächsten Konzentration angefertigt werden. Das folgende Zahlenbeispiel stammt aus einem Spitzen-Landes-Servicelabor, das allerdings streng an Regulierungen gebunden ist. Die Analytiker sind gezwungen, nur lineare “Kurven” anzuwenden. Dosiert wurden 5 Konzentrationen bei jeweils konstantem Volumen. Folgende X, Y- Datenpaarwerte wurden gefunden:

             X :     30              Y :    647.22                    
                      40                       873.36
                      60                     1307.10
                      80                     1679.43
                    100                     1987.57

Bild 6 zeigt die Kalibrierkurve, gemäß Regulierungsvorschrift als Gerade ausgewertet, mit folgenden Statistikdaten:
Polynomgrad 1, Polynomfaktoren  A = 106.78; B = 19.239;  r = 0.997  (Gerade geht nicht durch null)
Kalibrierkurvengüte:  2.72 % +- 1.38 %

Bewertung
: Da hat man nun ein perfektes Dosiersystem und stellt die Kalibrierlösungen unter den Bedingungen einer guten Laborwaage in Gramm her - also keine temperaturbedingten Fehler - und bekommt mit dieser Kalibriergeraden gerade mal Analysenwerte mit im Mittel von 2.72 % +- 1.38 % relativen Schwankungen über den Bereich  von entsprechend 30 bis 100 nl dosierten Kalibrierlösungen. Da liegt die Regulierung daneben. Das zeigt die Graphik der Kalibriergeraden (Nullpunkt bei 99,6 Integraleinheiten) und besonders deutlich der 95%-Streubereich - siehe Bild 6

bild6-1003-NF

Noch zu Bild 6 links:

Bei genauerem Hinsehen erkennt man, dass “unten” und “oben” je ein Messwert unter der Kalibriergeraden liegen, ein Messwert darauf, zwei darüber. Die 95% Streukurven schliessen alle 6 Messpunkte ein - das sind 95% des möglichen Gesamtstreubereichs.

Entgegen der festgelegten Regulierung wurde die Kalibrierkurve von uns jetzt durch polynomiale Interpolation zweiten Grades ermittelt. Wir sind frei ! Das lieferte folgende Statistikdaten:

Polynomgrad 2;  Polynomfaktoren  A = -145.04;  B = 28.53;  C = -0.0716;   r = 0.99997
Kalibrierkurvengüte:  0.67 % +- 0.65 %;   gegenüber bisher 2.72 % +- 1.38 %  (Bild 7 unten)                       

Bild7-1003-NF

Noch zu Bild 7:

Alle gemessenen Punkte liegen auf der berechneten Kalibrierkurve. Eine interpolation dritten Grades ist rechnerisch nur einen Klick weg, aber physikalisch-messtechnisch nicht zulässig, weil mathematisch illegal.
5 Werte liegen immer streng auf einer Kurve dritten Grades. Das ist nur graphisch “schön” aber eben nicht zulässig. Da wären mehrere als nur fünf unterschiedliche Kalibrierlösungen nötig.

Der Umgang mit der polynomialen Interpolation ist sehr einfach erlernbar, indem man mit einem entsprechenden Programm ein bisschen trainiert und stets die graphischen Informationen ansieht. Allerdings ist der Computercode für das Rechenprogramm recht aufwändig. .

bld1xpfoto1

Anwendung der “Praxisfall-Daten”:

Die jetzt laufenden Analysen werden für die kalibrierte Substanz “i” natürlich andere Signalwerte als 654 oder 1984 zeigen, aber hoffentlich keine unter und über den Kalibriergrenzwerten unten und oben. Nehmen wir an, die Analysenwerte zu drei unterschiedlichen Läufen lauten (als Mittelwerte auf Basis von  zB N=2 :
                   w1 = 650.5          w2 = 1000.01        w3 = 1800.0
Die Ergebnisse in (zB ng “i”, falls mit 30 bis 100 ng “i” kalibriert worden ist) lassen sich entweder mithilfe der Iteration (nur per  Computerprogramm) oder durch eine vorherige X Y - Datenumkehr der Polynomialfunktion durch Interpolation berechnen. Oder “zu Fuß”, wenn man die Polynomfaktoren des umgekehrten Datensatzes mit 30 als Y und 647.22 als X bis 100 als Y und 1987.57 als X verwendet. Das ist natürlich nur zumutbar, wenn man den ursprünglich eingegeben Datensatz  auf Stick oder im Rechnermemory an anderer Stelle gespeichert hat - am besten gleich im Bereich der Berichterstattung.
Beachte: Die Polynomiale Interpolation ist eine Regressionstechnik , bei der vorausgesetzt wird, dass die X-Daten fehlerfrei sind. Das kann akzeptiert werden, wenn tatsächlich die analytische Waage zur Herstellung der Kalibrierlösungen eingesetzt wird, also auch Lösemittel zugewogen werden-
Im Folgenden werden die iterierten X-Werte zu den drei oben angegeben Y-Werten von 640.5, 1000.01 und 1800.0 berechnet und die interpolierten Werte nach Umstellung der Polynomfunktion auf X;Y  aus Y;X  angegeben.

Es folgen diese Resultate: Signal gefunden     X durch Iteration            X als Y

                                           650.05                   30.29                      30.47
                                          1000.01                  45.39                      45.05
                                          1800.00                  87.47                      87.81

Warum Unterschiede zwischen Iteration und umgestellter polynomialer Interpolation ?
Iteration ist immer stärker begrenzt in der Rechengenauigkeit, je nach Programmaufwand. Der Autor programmiert selbst und hat sich einen sechsstufigen Iterationscode geleistet. Nach Datenumstellung ist die Kurvengenauigkeit anders: sie liegt bei 0.71 % +- 0.52 %. Die obigen Ergebnisunterschiede liegen bei + 0.18 %,  - 0.34 %  und 0.34 %. Die Mathematik “weiß ja nicht”, daß mit 5 Werten eine dreidimensionale Interpolation richtig wäre, aber eben analytisch nicht zulässig ist wegen viel zu kleiner Datenzahl je Messpunkt. Hätte man dreidimensional rechnen dürfen, lägen die Diskrepanzen zwischen iteriert und nach Datenpaar-Umkehr durch Interpolation umgerechnet iviel enger beisammen und die Kurvengüte läge bei 0.14 % +- 0.09 %.  Hier wirken aber auch  schon  die Grenzen der Rechengenauigkeit des Laborcomputers.

Regel: Sogar der Rechner kann garnicht genau genug rechnen. Da stecken bereits die Feinheiten der Systemprogramme drin. Die Systemprogrammierer sind heute mehr an Farben (möglichst ein paar Milliarden unterschiedliche, die wir nie ersehen können) und am Tempo von Spielen interessiert, statt an 64 stelliger Datengenauigkeit. Beachte: Hochzahlen, wie in der polynomialen Interpolation, erreichen schnell >>30 Stellen, um im Endesultat wieder bei 2 Stellen hinter dem Komma zu landen, und das wollen Analytiker schließlich doch sehen.

 

 

Web Design