Kann es das - heute - bei fast totaler Methoden-Regulierung
wirklich geben ?


 Der in älteren SITE-Versionen hier verfügbare Vortrag über “Was nun, wenn die einzig zugelassene Analysenmethode falsche Resultate liefert” ist ersetzt und der Ersatz in die englische Hauptsite “interchromforum”  verlagert worden. Dort ist er zu finden über einen click auf www.interchromforum.com. Dieser ppt-Beitrag ist dort verfügbar als

“Paper 2010” und hat den Inhalt

“ What next, if the only Official  Method leeds to Wrong Results “

In diesem  Beitrag fasst der Autor > 60 Jahre Analytikererfahrung - überwiegend,
 aber nicht nur, in GC, Kapillar-GC, HPLC, Kapillar-HPLC, TLC, HPTLC und µ-PLC - zusammen und legt die besonders im Rechtsbereich kritischer Analytik gesammelten 25 Jahre Erfahrungen als öffentlich vereidigter Sachverständiger zu “Fragen der Umweltanalytik und Messtechnik” hinzu.

Im Endresultat ist es seine feste Überzeugung, dass der wissenschaftliche, technische und ökonomische Schaden durch  nationale wie durch inzwischen global vorangetriebene  Methoden-Regulierung und Überregulierung der Analytik zu groß ist, um dies weiter gut zu heißen. Zu den genannten Schäden ist inzwischen hinzugekommen, dass qualifizierte Analytiker ihr Fachgebiet frustriert verlassen und die Ausbildung neuer Analytiker aus vielen “systematischen” Gründen hinkt.

Mehr und mehr wird klar, daß auch noch so weitgehend automatisierte oder allein computergesteuerte Probennahme / Probengabe Röhrchen nicht intelligent genug sind, ihre Aufgabe sachgerecht zu erfüllen. Besonders dann, wenn richtige analytische Daten plötzlich  auf Produktänderungen fußen und zeitlich dringend werden, weil der normale Produktions- oder Produktfluss vielleicht unnormal geworden ist. Analytik ist ja eigentlich zur Sicherung gewünschter stofflicher Zustände da und mitunter lebenswichtig, wenn sich kritische Zusammensetzungen oder Konzentrationszustände ergeben oder ändern. Es geht somit um ausreichend scharfe und so weit wie technisch und mathematisch möglich RICHTIGE Analysendaten. Sogar software-Schmieden konnten bei letzterem dazu gebracht werden, Analysenwerte  unerkannt zu manipulieren und sei es nur durch die Entfernung von Messwerten, die “wie Ausreißer aussehen”, aber einem statistischen Ausreissertest garnicht unterworfen werden können, weil dieses Programm-Modul auftragsgemäß nicht funktioniert. Oder der Programmierer nie dazu etwas gesagt bekommen hat warum auch immer.

Richtige analytische Daten werden nicht so gern gesehen, wenn sie zu scharf sind oder vom “Vereinbarten” gesichert abweichen. Regulierte Messungen sind da freundlicher und beruhigend ist für den einen oder anderen nur, wenn “alles beim alten” bleibt.

Inzwischen ist auch maßgebenden Regulierern zunehmend klar geworden, dass die grauen teuren Automaten mit dem Werbeslogan “NO knowledge necessary, just switch the  knob” nicht das Gelbe vom Ei sind. Solche Analysensysteme sind gefährlich dumm und bleiben es, weil Analytik eben nicht  gute Vergleichbarkeitswerte braucht, sondern richtig sein muss: so scharf wie nötig, so schnell verfügbar wie erforderlich, so kostengünstig wie möglich und bezahlbar. Nicht jenes Analytiklabor ist Vorbild, das von den neuesten Systemen die teuersten hat - meist zwecks Vorzeige. “Billige” oder “einfache” Analysensysteme bewirken fast eine Disqualifizierung des Benutzers und so wehren sich sogar Wissende dagegen. Solche billige und trotzdem perfekt arbeitende Systeme helfen nie der vorgesetzten Dienststelle zu erklären, warum man so viel “Energie” verbraucht hat und wieder dieses oder jenes Budget fordern muss.

Der Begriff analytische Ethik ist fast verschwunden und im rechtlichen Bereich kann man mit gesichert richtigen Daten kaum frei manövrieren. So ist ein qualifizierter Analytiker mitunter sogar gefährdet, wenn er in kritischen Gebieten kritisch tätig ist.

Fasst man alles zusammen, was man selbst in einem langen Analytikerleben durch Diskussion, Erfahrungsaustausch  und Zusammenarbeit mit vielen tausend Fachkollegen aus praktisch allen technisch ausgerichteten Ländern dieser Erde gelernt hat, dann sollte verstanden werden, warum diese Schlussfolgerung richtig ist:

Alle Analytik-Regulierung komplett als Wissensbasis ins Internet.
Dem Analytiker die Verantwortung überlassen, der analytische Chemie wirklich kann und deren Resultate rechtlich auch vertreten muss.

 Jetzt.

Fundamentale Probleme der Umweltanalytik -

hier nach 15 Jahren wiedergegeben und zu prüfen aus der Sicht der letzten Jahre des 20. Jahrhunderts, kritisch zu vergleichen mit dem Stand von heute, ob sich etwas verbessert hat.
   Der Vergleich über eine Zeitperiode einer halben Generation hinweg ist Sache der jetzt tätigen Analytiker. Es sei nützlich, ja sogar notwendig, mindestens alle 10-15 Jahre zu prüfen, “was sich und ob sich was getan hat”. Daher diese Wiedergabe einer Publikation, die vor 15 Jahren erschien. Genau so informativ könnte die Wiedergabe eines zum gleichen Problemgebiet gehörenden Artikels zu dem Thema “Richtige Analytik trotz Standardverfahren” sein. Da existieren exakt die gleichen Probleme wie bei der “Extremanalytik zur stofflichen Umweltsituation”. Fachkollegen wie z.B. Herr Prof. Dr. Knut Ohls, ehemals ö.b.u.v. Sachverständiger für Analyse und Beurteilung von Gefahrstoffen, versichern dem Autor des obigen Themas schriftlich die völlige  Gleichheit kritischer Auffassungen und Befunde wie im folgenden diskutiert.
   Wo bleibt eigentlich die Verantwortung von Regulierern beim Umgang mit der Erfahrung von solchen, die es wirklich wissen und können? Da der Beitrag “Richtige Analytik trotz Standardverfahren”aus dem Jahre 1995 hier nicht folgt, sei die Literaturstelle angegeben: 
Nachr. Chem. Techn. Lab. Nr. 5, (1995).

Zu Beginn dieses Jahrhunderts ist es bedenklich, dass an den Grenzen unseres Landes immer noch Stoffe im Flusswasser auftauchen können, die hochtoxisch sind, Grenzwerte kritisch überschritten haben, Spitzenanalytiker erforderten, welche erkennen und reagieren konnten, worum es geht und den nötigen Alarm aber aus vielen unschönen Gründen fast zu spät auslösten. Das passierte hunderte km im unteren Flusslauf von Vater Rhein und war extrem dringlich. Die späte Zeit und  der viel zu große Streckenabstand zwischen der Schadstoffquelle und dem reagierenden Umweltlabor sind bedenklich. Denn in der Nähe der Schadstoffquelle versagte die regulierte Umweltanalytik. Glückliche Wasserflöhe liessen dort unerkannt durch, was weiter unten im Fluss eine Katastrophe auslösen konnte. Diese alleingelassenen Flöhe waren wohl nicht das richtige umweltanalytische Sicherheitssystem.

Das stetige Steigen der Weltbevölkerung ist kein Hinweis, dass die heute umfassend regulierte Umweltanalytik richtig funktioniert, sondern viel eher dass sie sich laufend und rechtzeitig an steigende Anforderungen anpassen muss. Das betrifft nicht nur die Trinkwassersituation.  Lässt  strikte Regulierung Anpassung zu ? Hilft die regulierte Analysentechnik dort, wo es besonders kritisch ist oder werden wird ?
Prüfen Sie diesen folgenden Text, der mit Genehmigung der Redaktion der Fachzeitschrift LABO (Hoppenstedt Verlag, www.hoppenstedt.de/fachzeitschriften; www.labo.de) aus LABO 5/94,S. 20-30, in diese SITE übertragen wurde.

Zusammenfassung:
      Es werden Zielvorstellungen, Argumente und Probleme der heutigen organischen Umweltanalytik verglichen. Ein Ziel amtlich vorgeschriebener Methoden wird am Beispiel der aktuellen Methodensammlung der EPA (= U.S. Environmental Protection Agency) diskutiert. Es ist dies in erster Linie die Vergleichbarkeit analytischer Werte unterschiedlichster Laboratorien bei der gleichen analytischen Aufgabe. Streng, also invariabel, vorgeschriebene Methoden sind zur stofflichen Umweltanalytik generell untauglich. Das Ziel, nur Vergleichbarkeit bei der Umweltanalytik zu erreichen, wird kritisiert, denn anders als bei vielen sonst genormten Verfahren, muss es im Falle der Umweltanalytik allein um Richtigkeit der Werte gehen. Das wird begründet.
    Richtige Werte sind zwingend vergleichbar, aber vergleichbare Werte sind keineswegs zwingend richtig. Das Problem der stofflichen Falschidentifikation und die Größenordnung zugehöriger Folgen wird für den Fall einer Deponiegasanalytik dargestellt. Es wird der quantitativ systematisch falsche Wert aufgrund nichtlinearer und nicht durch null gehender Kalibrierlinien zu den fundamentalen Problemen von analytischen Vorschriften neben dem Problem der juristischen “Entscheidungsschärfe” hinzugenommen. So folgt, dass die Sammlung amtlich vorgeschriebener Methoden eine durchaus nützliche und für eine begrenzte Zeitperiode brauchbare Informationsquelle darstellt, jede für die Umweltanalytik vorgeschriebene Methode aber auf den Level einer Empfehlung zurückgestuft werden muss.
   Qualifizierte Umweltanalytiker müssen die Freiheit der Methodenwahl und der Methodenkombination haben, um die Verantwortung für die erzeugten Daten tragen zu können. Sie müssen die Freiheit haben, amtlich (noch) nicht bekannte Methoden einzusetzen, und sie müssen Mitverantwortung für die Bewertung und Umsetzung der Resultate übernehmen. Umweltanalytik ist Extremanalytik und erfordert so viel Erfahrung und Können, dass sie nur qualifizierten Analytikern überlassen werden darf.

Einleitung
    Umweltanalytik ist für den Schutz des Menschen und der Natur lebensnotwendig geworden, sie ist aber auch wirtschaftlich bedeutend, da sie eine stark wachsende und - in Deutschland - sehr gewinnträchtige neue Industrie bedient: Die Umwelttechnologie und das Entsorgungswesen.
    Für den ersten wie für den zweiten Fall sind ausreichend präzise und insbesonders richtige Analysenwerte notwendig. Zunehmend wird aber auch erkannt, dass eine zuverlässige Korrelation mit der Toxikologie unverzichtbar ist, wobei umfassende Analysendaten ebenfalls in erster Linie quantitativ und qualitativ richtig sein müssen.
   Umweltanalytik beginnt mit dem richtigen Erkennen eines stofflich verursachten Problems: Zum Beispiel der Explosionsgefahr an und in Deponien, Schadstoffemission in die Biosphäre, Schaffung neuer Schadstoffe beispielsweise bei der Deponiegasentsorgung usw. Hier ist kein Platz, um Umweltprobleme dieser zweiten Art - also Folgeprobleme bei der Lösung der primären Probleme - im einzelnen zu diskutieren.
   Umweltanalytik setzt voraus, dass nach dem richtigen Erkennen der wirklich vorliegenden Problematik die richtige Art der Probennahme, die richtigen Analysenmethoden, die richtigen Auswerte- und Bewertungsmethoden kombiniert eingesetzt werden. Verantwortliche Umweltanalytik endet nicht mit den Daten. Der Analytiker ist aufgrund seines konkreten Detailwissens verpflichtet, auch noch an der Datenumsetzung in Entscheidungen und in Handlungen, Maßnahmen und Regelungen mitzuwirken.
   Es ist Ziel dieses Beitrages, auf den Tatbestand falscher - aber mitunter gesetzlich vorgeschriebener - Vorgehensweisen, Zwängen und Verfahren im Zusammenhang mit der Umweltanalytik hinzuweisen und für Mithilfe zur Korrektur dieses gefährlichen Zustandes zu werben. Diese hier gemachte Aussage ist so gravierend, dass es nicht leicht sein wird, zu überzeugen. Daher werden im Folgenden einige Argumente erwähnt, die zunächst auf ihr Gewicht zu prüfen sind. Die sich anschließenden Aussagen sollten dann auf Wahrheitsgehalt und ebenfalls auf ihr Gewicht geprüft werden.
   Abschließend zu dieser Einleitung eine offene juristische Frage: wenn ein Analytiker aufgrund zwingender Vorschriften falsche Daten erzeugen muss, die im Falle der Umweltanalytik in aller Regel zu ganz wesentlich größeren Schäden als im Normalfall jeder stofflichen Standardanalytik führen, wer trägt dafür die Verantwortung ?

Argumente
   Das Vorschreiben von analytischen Methoden hat (in der Regel) zum Ziel, vergleichbare Daten bei gleichartigen Messungen zu erreichen, wobei durchaus positive Fakten geschaffen werden: eine gute Vergleichbarkeit ist eben nur durch professionelle Qualifikation der analytischen Stellen erreichbar. Aber das reicht nicht, wenn es um lebenswichtige Analytik geht.
   So ist es eine wichtige Aufgabe der in den Vereinigten Staaten von Amerika seit Beginn der 70er Jahre entwickelten EPA-Methoden zur Umweltanalytik zu sichern, dass die entsprechend zugelassenen Laboratorien qualifiziert arbeiten. Bedingungen der Qualitätskontrolle und Qualitätssicherung müssen stetig eingehalten werden. Es muss an Ringversuchen teilgenommen werden. Die EPA-Methoden müssen streng eingehalten werden. Die Resultate müssen vergleichbar sein, es muss streng gleichartig berichtet werden. Sogar die Schriftform und Buchstabengröße ist vorgeschrieben - ähnlich wie in der deutschen Fassung der GLP-Richtlinien.
   Zwar sind die heute (der Text stammt aus dem Jahr 1994) geltenden 163 EPA-Methoden im Bereich der organisch-chemischen Umweltanalytik im Verlaufe von 20 Jahren entstanden. Die 1970er und die 1980iger Methoden sind nicht mehr gültig. Aber auch die 1990-1992er Methoden liegen weit hinter dem Stand der Technik und der analytisch-methodischen Entwicklung.
   90 von 163 Methoden nach dem Stand vom März 1994 befassen sich mit der Analyse von Wasserproben. 85 mit organischen Halogenverbindungen. 44 mit Bodenproben. 40 mit Pestiziden. 18 mit Schwefelverbindungen. 16 mit Benzol. 13 mit Phenol und 13 mit Luftuntersuchungen. In 69 von 163 Methoden ist die Anwendung gepackter Stahl- und Glassäulen vorgeschrieben aber immerhin wird in 89 Methoden das Massenspektrometer als Detektor vorgeschrieben und die Mehrheit der Methoden sind gas-chromatographischer Natur.
   In 5 Methoden kommt der Begriff Validierung vor. Das Wort “möglicher Fehler” (in englischer Sprache “error”) im Zusammenhang mit Daten kommt in keiner Methode vor. Fachleute, welche die Gesamtheit der Methoden anwendeten und prüften, stellten MÜNDLICH fest: ...a lot of these methods are not suitable to be used for officially measuring the concentration of all the compounds mentioned because of decomposition etc. ... etc. ....”
   Hier wird auf ein noch zu wenig bekanntes Buch von Brian Middleditch [1] hingewiesen, in welchem man zur Analytik von über 7000 Verbindungen Hinweise zu Artefakten bei Anwendung von GC, MS, HPLC, TLC und PC findet. Die Begriffe Artefaktbildung, Fehlidentifizierung, oder systematischer Analysenfehler sind gleichwertig. Im Zusammenhang mit Umweltanalytik ist die zugehörige Sicherung von höchster Bedeutung, dass diese Kategorie von Problemen im konkreten Fall ausgeschlossen ist.
   Nun dienen die streng vorgeschriebenen EPA-Methoden zunächst zur Kontrolle und Qualifizierung der Laboratorien, und da haben sie Nützliches geleistet, denn die Mehrzahl der umweltanalytischen Laboratorien dieser Welt sind hochgradig unterfinanziert. Qualifizierte Umweltanalytik ist sehr zeit-, material-, personal- und damit kostenaufwendig, und in vielen Fällen ist eine übergroße Messdichte und/oder Probenzahl notwendig, will man Daten erhalten, mit denen wirklich tragfähige Entscheidungen und schließlich akzeptable Problemlösungen möglich sind. Das ist aber auch ein Kostenproblem und so besteht für die Betroffenen durchaus die Gefahr schwerwiegender Fehlentscheidungen.

(Streng) vorgeschriebene Methoden sind zur Umweltanalytik generell untauglich
    Zur wirklichen Umweltanalytik sind (streng) vorgeschriebene Methoden generell untauglich, weil damit die zu wählende Methode festgelegt ist, ehe erkannt werden kann, welche Methode wie zu modifizieren und mit welcher nächsten sie gemeinsam oder in Serie kontrollierend angewendet werden muss. Das weiß der Analytiker aber erst, wenn er das Problem selbst analysiert hat, nicht nur die Materie und diese ist von Fall zu Fall durchaus ganz unterschiedlich.

Beispiel:
   Im Zusammenhang mit der Genehmigung eines Großkraftwerkes auf Basis Schwerölverbrennung ist zu sichern, dass die Abluft hinter den Brennkammern in Bezug auf organische Spuren reiner als die angesaugte Verbrennungsluft ist. Da dies nur an einem real existierenden Kraftwerk messbar ist, kommt es zum Problem der Probennahme und des Probentransportes, unter Umständen über Tausende von Kilometern Luftlinie. Die Vorschrift, dass man ein Abgas aus Wasser, Kohlendioxid, Kohlenmonoxid, Stickoxiden, Stickstoff, Methan, Schwefelverbindungen und Spuren aller teils anoxidierten, teils unverbrannten, teils aus Radikalreaktionen synthetisierten, hochmolekularen Verbindungen bis weit über C40 neben Resten unverbrannten Rohöles in (irgendwelche) Behälter zu füllen habe und so zu einem Analysengerät transportiert, hilft nur dem Kraftwerkserbauer, dessen System die gestellte Reinheitsbedingung im Abgas nicht erfüllen kann, dem man aber per Analysendaten nichts anhaben kann. Denn ein solches Gas lässt sich so nicht richtig nehmen und kalt in Behältern als Gas transportieren, ohne dramatisch in der Zusammensetzung verfälscht zu werden. Die Summe aller organischen Verbindungen größer als Methan würde nach dieser Art Probentransport wie folgt vermessen werden: Dosiere das Abgas in eine Dosierschleife, trenne durch eine gepackte GC-Säule vorwärts, bestimme das Methan, schiebe alle restlichen Verbindungen nach Rückvereinigung zu einem Peak durch einen Oxidator, reduziere das gebildete CO2 zu Methan und quantifiziere das so synthetisierte Methan erneut, addiere die beiden Methanwerte und weise nach, dass die so gefundene Summe niedriger ist als der natürliche Methangehalt der Umgebungsluft = Prozessluft.
   Nun lässt sich diese analytische Aufgabe nicht einmal mit direktem Transfer des Probengases zu einem komplexen Analysenautomaten (auf analytisch sichere Weise) lösen, jedenfalls gebe es weltweit nur einen einzigen Könner, der sich in den letzten zehn Jahren darauf spezialisiert habe. Was kann man mit verbindlichen amtlichen Vorschriften zu einer solchen Aufgabenstellung machen ? Sehr viel anderes, aber nichts, was mit richtiger stofflicher Analytik im Interesse der Umweltsituation zu tun hat. (Beachte: es geht um Bau oder Nichtbau eines Energieriesen, der so oder anders einige mio Dollar Kosten verursacht. Und dabei geht es auch noch um Fristen mit großen finanziellen Risiken. Die Baugnehmigungen sind es nicht allein.)

Vergleichbarkeit
   In der Umweltanalytik kommt es gar keinen Fall auf Vergleichbarkeit an, sondern ausschließlich auf Richtigkeit. Nur solche Werte korrelieren mit Toxizität bzw. dem biochemischen Geschehen. Jeweils richtige Werte sind zwingend vergleichbar (umgekehrt gilt das nicht).
   Auf Richtigkeit kann nur mit mehr als einer (anderen) Methode geprüft werden. Auch Ringversuche (mit der jeweils gleichen Methode) liefern keinen Beitrag zur Prüfung auf Richtigkeit. Der Grad der erreichten Richtigkeit ist neben der Wiederholbarkeit fundamental als unverzichtbare Kontrolle bei der Qualitätssicherung umweltanalytischer Arbeit anzusehen.
   Wenn also nur mit vorgeschriebenen Methoden gearbeitet wird, wird das Entscheidende der Umweltanalytik weder erreicht noch prüfbar. Das Argument, dass man in der Umweltanalytik derzeit (1994) fast generell keine Standards hat - und in vielen Fällen auch so bald keine haben wird - und dass die Bestimmung der Nachweisgrenzen und der Nullwerte kaum zu schaffen ist, ohne einen an der Normalanalytik gemessen übergroßen Aufwand zu treiben, wiegt schwer. Somit greifen 2 weitere Argumente: Umweltanalytik ist “Extremanalyse” (nach dem Grad der Schwierigkeit, des Umfangs, der Störeinflüsse, des Kontrollaufwandes), sie muss daher qualifizierten Analytikern überlassen werden, sie ist nur sehr aufwendig automatisierbar - von wenigen Einzelstoffbestimmungen abgesehen.

Identifizierprobleme - Falschidentifikation
   Umweltproben sind in aller Regel unbekannt komplex zusammengesetzt. Zuverlässige Messwerte sind häufig auf Konzentrationsebenen zu bestimmen - zum Beispiel ppt = 1 x 10 hoch minus 10  % - bei denen Millionen zugleich vorhandener Stoffe in vergleichbaren niedrigen Konzentrationen koexistieren. Dies ist eine Hauptquelle falscher Identifikationen, denn unter solchen Bedingungen sind alle, auch die leistungsfähigsten spektroskopischen Methoden von heute überfordert. Bei einem falsch identifizierten Stoff ist bekanntlich alles falsch, auch der quantitative Wert.

Beispiel:
   Eine Gruppe angehender Analytiker und Nichtanalytiker bestimmte die Gaszusammensetzung auf Deutschlands erster “Musterdeponie”, nahm die Probe falsch (aus stehendem Gas in einer Gassammelleitung und identifizierte zusätzlich chemisch falsch. Die Folge war ein um den Faktor tausend zu hoch angegebener Gehalt einer organischen Halogenverbindung. Der zugehörige systematische quantitative Fehler (außer der Falschidentifzierung) hat die Größenordnung 100,000 %.
Die daraus berechneten Folgewerte an zu erwartendem HCl Und H2F2 nach Deponiegasverbrennung waren theoretisch so hoch, dass das Deponiegas statt zur Energieverwertung zum direkten Abfackeln bestimmt wurde, mit der sekundären Folge von Protesten der Bewohner umliegender Ortschaften, die wegen befürchteter viel zu hoher Dioxinbildung bei der - jetzt zu einfach konzipierten - Gasverbrennung keine Fackel sehen wollten. Alle Entscheidungen auf der Basis solcher Daten sind Fehlentscheidungen. Die Summe der gemachten Fehler hatte jetzt Politik zur Folge.

Kalibrierlinien sind nicht geradlinig und gehen nicht durch null
   Diese im Arbeitsbereich umweltanalytischer Aufgabenstellungen problemlos belegbare Tatsache zwingt zu beachtlichen systematischen Fehlern, rein mathematisch - siehe Bild 1 unten. Das ist aber banal und bedarf keiner weiteren Diskussion.
Nicht banal ist, dass viele amtlich vorgeschriebene umweltanalytische Methoden die Bestimmung einer Kalibriergeraden verlangen bzw. der Analytiker gezwungen wird, die Analysenkrumme zu linearisieren. Genaue und stofflich auf Richtigkeit geprüfte Messungen zeigen, dass es bei keinem in der Chromatographie benutzten quantitativen Detektor Kalibriergeraden gibt, die durch den Nullpunkt gehen bei solchen Stoffen, auf die es in der Umweltanalytik ankommt. Somit versagen alle Methoden zur Bestimmung von Nachweis- und Bestimmungsgrenzen, die mit der Kalibrierlinienverlängerung bis null (entweder null Gramm Substanz oder null Signal) arbeiten. Die Vorschrift, dass die Kalibrierkurve zu linearisieren ist, ist daher unerfüllbar, ebenso wie die, wonach für bestimmte Stoffe nachgewiesen werden muss, dass sie nur mit null Prozent (null ist gleich zehn hoch minus unendlich) vorliegen. Null Prozent kann man nicht messen (oder nachweisen), auch nicht, wenn das gesetzlich vorgeschrieben ist.

ifcsite-1 001

Bild 2: Ein häufiges Rechts-Problem bei der Bewertung und Entscheidung aufgrund analytischer Daten: Meßwerte und deren Unschärfe s = Wiederholstandardabweichung der in aller Regel nicht-Gauss-förmigen analytischen Streuung.

 Naturwissenschaftlich “illegal” festgelegter “Grenzwert” den es in Wirklichkeit so nicht geben kann. Siehe dazu auch [3] und die im Widerspruch zur Praxis stehende Annahme von symmetrisch Gauss-förmiger Meßwertwiederholbarkeit in [2].

Ein Kompromisswert ist meist das Ergebnis politischer Festlegungen, aber auch der Kompromiss muss seine Unschärfe behalten, sie ist Naturgesetz. Das wird auch nicht anders, wenn im kritischen Fall - zum Beispiel Dioxin-Grenzwerte - mit ansteigenden lokalen Meßwerten der lokale Meßwert politisch “hochgeschoben” wurde. Richterliche Entscheidungen - aber auch rein vertragsgemäß erforderliche Grenzwertentscheidungen - sind schwierig, wenn man berücksichtigen soll, daß die Wiederholstandardabweichung beispielsweise chromatographischer quantitativer Daten den Wert “s” hat, der häufig festgestellte quantitativ systematische Fehler aber bei 10 mal “s” liegt.

Probennahme - wie, wo, wie dicht, wie oft
   Allein am Beispiel der Bodenanalytik im Gefolge einer Betriebsstörung, bei der ein feiner, dünnster und natürlich inhomogen ausfallender Niederschlag toxischer Stoffe zu quantifizieren ist, kann erkannt werden, wie problematisch Umweltanalytik von der Probennahme bis zur Bewertung ist, die Meßmethode eingeschlossen.
   Dass die Probe nicht instrumentell (automatisch) genommen werden kann, ist einsichtig. Dass es sich dabei nicht um drei oder 10 Proben handeln kann, wenn eine großflächig angelegte Prüfung notwendig ist, ist sicher zu verstehen. Möglicherweise reichen 30 Doppelproben bei einem Quadratkilometer zu kontrollierender Fläche, was sich erst aus einer “Voraus-Analyse” mit umfassender Auswertung ergibt. Wie soll die Probe genommen werden, wenn der stoffliche Niederschlag extrem dünn ist ? Der Meßwert der Niederschlagsschicht - sicher partikulär - möge
0.0001 mm “dick” sein.  Nimmt man die Probe 10 mm tief, hat man den zu erfassenden Stoff
1 : 100000 “verdünnt”.
   Hat es vor der Probennahme geregnet ? Was haben andere Wettereinflüsse bewirkt ? Angenommen, wir erfassen analytisch richtig 1 ng Wirkstoff pro Quadratmeter Bodenoberfläche, weil es gelungen sei, die Probenmassen und die Probennahmeflächen richtig und genau genug zu vermessen: Wie soll der Endwert angegeben werden ? Und was soll man daraus für Schlüsse ziehen ?
   Sicher waren zuvor hunderte von Chromatogrammen nötig. HPLC mit MS ? Oder lieber instrumentelle, durchaus hochempfindliche Planar-Chromatographie ? Nur so wären 30 Doppelproben jeweils doppelt vermessen in wenigen Tagen machbar und bezahlbar.
   Nur, in den einführend genannten EPA-Methoden kommt diese Methode der Wahl (die PLC) für beispielsweise Bodenanalytik nicht ein einziges mal vor. PLC, TLC, HPTLC sind nicht “bekannt” und somit automatisch nicht zugelassen.
   Das gilt natürlich für alle anderen an bestimmten Stellen nicht bekannte Methoden ebenfalls. Nicht bekannte Methoden konnten garnicht zugelassen werden, beim heutigen Stand der für die Zukunft der Analytik unakzeptablen Politik des Vorschreibens von Analysenmethoden.

[HIER ein Zusatz zum alten Beitrag aus der Zeit vor einer halben Generation vom gleichen Autor aber eben im Jahre 2010:

     Regulierer sind kaum auf Fachtagungen zu sehen und / oder zu hören. Wie sollen sie dann up-to-date sein ? Auf den globalen Spitzenfachtagungen von heute lernt man Problemlösungen kennen, von denen jene, die keine Zeit, keinen Bock, kein Tagungsgeld haben (??)  auc h keine Ahnung haben können. Fachlich üben sie völlig unbegründet Macht aus. Deswegen bewirken sie erheblichen Schaden. Glaubt man (wie dieser Autor mal nebenbei erfuhr) dass man Analytik aus dem kleinen Klub heraus unter sich abwickeln kann ? Abwickeln, nicht  etwa “voranbringen”. Es erscheint notwendig, diese harte Kritik zu untermauern mit einem Kurzbericht:

Ein großes US Unternehmen der Chemie mit Spitzenanalytikern, die längst Kapillar-GC zur Abwasseranalytik einsetzten und nicht nur MS/MS als Detektoren kennen, mussten sich gegen die offizielle Analytik mit gepackten kurzen Stahlsäulen verteidigen bei der offiziell “bewiesen” wurde, dass der US-Chemieriese einen Fluss kritisch verunreinigt hatte. Die GC auf Basis Kapillar-Trennungen konnte problemlos beweisen und orten, daß der Gefährder ein ganz anderer Betrieb war. Die analytischen Diskrepanzen basierten völlig zweifellos und für jeden Analytiker erkennbar auf falscher Identifizierung wegen völlig unzureichender Trennungen. Dieses kristallklare Ergebnis hatte ein juristisches Problem: Reguliert und vorgeschrieben ist reguliert und Gesetz. Es dauerte Monate scharfer Fachauseinandersetzungen im US-Senat, bis der Regulierer aufgab. Zu dieser Zeit waren längst Kapillar-Chromatographiekonferenzen in Europa global gut besucht und das Fachgebiet selbst war gut vorangekommen, bei denen, die mitmachten.

Hinweis: Zusätze, die der Autor zu seinem alten offiziellen Text machte, um mögliche Missverständnis zu minimieren, sind in kursiv geschrieben. Kursiv UND fett: das ist ihm besonders wichtig - aber eben auch nicht im Zugriff von jeglicher Art Zensur. Daher Internet sogar zur Wiedergabe alter Texte]

Schlussfolgerungen


   In der Umweltanalytik ist das Vorschreiben von Methoden fundamental falsch. Die Folgen sind aus vielfachen Gründen nicht tolerierbar. Die amtlichen Methodensammlungen sind (für eine jeweils begrenzte Zeitperiode) als durchaus nützliche Informationsquelle brauchbar. Vorgeschriebene Methoden müssen auf die Stufe von Empfehlungen (
only) zurückgestuft werden.
   Erst dann kann - und muss - die Verantwortung für umweltanalytische Resultate dem Umweltanalytiker übertragen werden. Er trägt dann auch die Mitverantwortung für die Bewertung und Umsetzung der Resultate in die Praxis, denn nur er weiß, wo er wie mit welchen möglichen Gefährdungen für die Resultate die Probe genommen oder die Messautomaten angesetzt hat.
   Umweltanalytische Resultate müssen richtig sein, weil sie lebenswichtig sind für richtige Entscheidungen. Die Forderung nach Vergleichbarkeit ist überflüssig. Richtige Werte sind grundsätzlich vergleichbar. Es muss somit auf Richtigkeit geprüft werden. Die heutige Methodensituation erlaubt es nicht, diese fundamentale Bedingung in der Praxis einzuhalten.

Soweit zum Stand vor einer halben Generation.

Und wie sieht es heute (2018) aus ?

Literatur:
[1]  Brian S. Middleditch, “analytical artifacts” Journal of Chromatography Library Vol. 44 Elsevier Amsterdam, (1989), ISBN 0-444-87158-6
[2]  W. Funk, V. Dammann, G. Donnvert “Qualitätssicherung in der Analytischen Chemie”, VCH Weinheim (1992), ISBN 3-527-28291-2; siehe speziell alle Kalibrierkurvenabbildungen und Analysenwertverteilungen.
[3]  R.E.Kaiser, “Systematische Analysenfehler” in Breath Alcohol + International Scientific Journal of Forensic Alcohology, AtemA Vol.2, 1-2, S.7-42 (1986), ISSN 0177-9206

ifcsite-1

 Zu Bild 1.
Hier ist sicher jede Bildunterschrift überflüssig, siehe aber zu Kalibrierkurven in dem ppt-pdf Beitrag
“Paper 2010” in www.interchromforum.com .

  Aus diesen wenigen Hinweisen folgt: Bei der Umweltanalytik mit vorgeschriebener Methodik und mit nicht kompetenten “Datenerzeugern” sind wegen der sehr komplexen Substanzvielfalt in echten Proben systematische Analysenfehler eher die Regel als die Ausnahme. Fachleute mit Überblick über viele Messlaboratorien sprechen von einer Zahl von über 90% gemessenen “Hausnummern” statt richtigen Werten. Das Argument, systematisch falsche Werte garantieren systematisch falsche Bewertungen, Schlussfolgerungen, Entscheidungen und Aktionen ist daher ernst zu nehmen.

Ein weiteres fundamentales Problem ist die juristische Entscheidungsschärfe.
   Richterliche Entscheidungen (beispielsweise über die Verletzung von Konzentrationsgrenzen) müssen häufig scharf sein. Als Schlussentscheidung ist oft ein “Ja” oder ein “Nein” erforderlich. Aber weder der analytische Wert kann “juristisch scharf” sein - wegen der unvermeidbaren entsprechenden analytischen Unschärfe - noch kann der für das juristische Urteil notwendige entsprechende Grenzwert  scharf angegeben werden.  Auch ein auf Basis von Kompromissen oder einsamen Entscheidungen festgelegter scharfer Grenzwert existiert nicht real. Er könnte nur das Ergebnis von Analytik sein - und wenn dies von der Toxikologie oder aus Mittelwerten vieler zusammengewürfelter Messwerte von zuständigen Laboratorien bzw (echten) Proben oder Quellen stammt, siehe Bild 2.

 

Bild 1: Einpunkt-Kalibrierung, die falschest mögliche !

Web Design