Startseite faes.de

Spektroskopische MKA

Basis

Als PDF-Datei laden.....


Neuronale Netze in der Farbmetrik

zur Bestimmung des Farbabstandes in der Qualitätsprüfung

 

Günter Faes

DyStar GmbH & Co. Deutschland KG

Kaiser-Wilhelm-Allee

Postfach 10 04 80

D-51304 Leverkusen

1 Einleitung

In der Farbmetrik wird der Versuch unternommen, die Farbbeurteilung durch ein Mess- und mathematisches System (CIELAB, CMC(l:c), CIE94 usw.) vornehmen zu lassen, um vergleichbare Daten, die vom subjektiven Beobachter unabhängig sind, zu erhalten. Diese unabhängigen Daten stellen dann die Basis für z. B. Qualitätsprüfungen und Qualitätsvereinbarungen zwischen Hersteller und Kunde dar.

Diese Vorgehensweise ist idealisiert. In der Praxis sieht es so aus, dass die Beurteilung der Charge abschließend vom Coloristen durchgeführt wird. Seine Beurteilung kann von den farbmetrischen Daten abweichen. In der Farbmetrik wird dem durch verschiedene mathematische Systeme Rechnung getragen. Dies gelang bis heute, wie auch die ständigen Modifikationen des CIELAB-Systems zeigen, nur unvollständig.

Die farbmetrischen Systeme sind nicht für alle Farben im Farbraum im Vergleich zum visuellen Sehen gleichabständig. D. h., es ist nicht möglich, farbmetrische Toleranzen zu vereinbaren, die für alle Farben gleich sind. Ein brillantes Gelb erfordert andere Toleranzen als ein dunkles Blau.

 

Der Einsatz neuronaler Netze in der Farbmetrik kann, wenn eine visuelle Beurteilung der erstellten Färbungen für notwendig erachtet wird, als Entlastung des Coloristen (oder die Coloristen bzw. ganz allgemein dem Kunden) von der visuellen Beurteilung des Routinegeschäftes betrachtet werden.

Es wird gezeigt, das neuronale Netze auf Basis der farbmetrischen Daten der Reflexionsmessung des gefärbten Materials zuverlässige Vorhersagen über die visuelle Beurteilung machen können.

2 Neuronales Netz

Da der praktische Einsatz auch in der instrumentellen Messtechnik noch recht neu ist, ist [1] zur Überblickverschaffung zu empfehlen.

Neuronale Netze in der Farbmetrik wurden bisher nur zur Rezeptberechnung - und das nur mit mäßigem Erfolg - eingesetzt [2, 3].

2.1 Basis des künstlichen neuronalen Netzes

      Abbildung 1 : Basis eines künstlichen neuronalen Netzes

Die Basis eines künstlichen neuronalen Netzes wird in  Abbildung 1 dargestellt. Es ist analog dem biologischen Vorbild der Nervenzellen nachempfunden. Die nachfolgende Beschreibung der Signalübertragung von einer Zelle zur nächsten ist eine mathematische, die den Algorithmus des künstlichen neuronalen Netzes beschreibt, aber sie trifft auch für das biologische Vorbild der Signalübertragung von einer Nervenzelle zur nächsten zu.

      Abbildung 2 : Sigmoide Aktivierungsfunktion

Liegt ein Signal (Information) am Eingang der Zelle 1 an, wird unter Berücksichtigung des Aktivierungszustandes und der -funktion ermittelt, ob das Signal weitergeleitet werden soll (wurde ein bestimmter Schwellwert überschritten?). Wenn ja, wird eine Ausgabefunktion berechnet und diese dann über die Gewichtsverbindung zur Zelle 2 weitergegeben. Die Größe des Ausgangssignals von Zelle 1, das am Eingang von Zelle 2 angelegt wird, ist von der Art der Gewichtsverbindung abhängig. Ist die Gewichtverbindungsfunktion nicht linear sondern sigmoid, werden kleine Signale im Verhältnis zu großen Signalen stärker berücksichtigt. Sigmoide Aktivierungsfunktionen (Abbildung 2) reagieren sensibler auf Signale, die um den Schwellwert liegen (dort haben sie ihre größte Sensibilität).

Die Lernfähigkeit, die das natürliche neuronale Netz ausmacht, wird durch Algorithmen, den sog. “Lernregeln”, in das künstliche neuronale Netz eingebracht. Die Lernregeln haben die Aufgabe, die Gewichtverbindungsfunktion zu modifizieren, um die gewünschte Ausgabe am Ausgang des neuronalen Netzes zu erhalten.

2.2 Topologie eines neuronales Netzes

        Abbildung 3 : Multilayer Perceptron

Ein neuronales Netz besteht aus einer größeren Anzahl verknüpfter Neuronen (Zellen). Die Zahl und Anordnung der Neuronen entscheidet über die Lernfähigkeit des Netzes. Das für dieses Problem eingesetzte Netzmodell ist ein “Multilayer Perceptron”, in dem die Neuronen in Schichten angeordnet sind, wobei die Neuronen einer Schicht vollständig mit den Neuronen der nachfolgenden Schicht verknüpft sind (Abbildung 3).

Perceptron-Netze mit zwei verdeckten Schichten können theoretisch jedes Problem repräsentieren, aber ob es alles lernen kann, hängt von der Lernfähigkeit des Lernalgorithmus ab.

2.3 Lernfähigkeit (Lernalgorithmus)

Ein wichtiges Lernverfahren ist die “Backpropagation”. Zur Problemlösung wird dieses Lernverfahren eingesetzt, d. h., unter Berücksichtigung der Netztopologie wird ein “Multilayer Perceptron mit Backpropagation Lernregel” eingesetzt. Um das Lernverfahren “Backpropagation” erklären zu können, muss die Lernphase - das Training - eines Netzes allgemein erklärt werden:

An den Neuronen der Eingangsschicht wird eine Informationsmenge dem Netz präsentiert (input) und durch das Netz “propagiert”. Dabei wird die Gewichtverbindungsfunktion anhand vom Lernalgorithmus und Trainingsmuster verändert. Unter Informationsmenge wird eine Auswahl der Daten verstanden, die als Muster für die Trainingsphase des Netzes dienen. Diese Daten müssen die Aufgabenstellung möglichst vollständig beschreiben.

Das obige Verfahren beschreibt das unüberwachte Lernverfahren; es wird in Abbildung 4 dargestellt.

Abbildung 4 : Unüberwachtes Lernen

Das Lernen des Netzes geschieht durch Selbstorganisation, d. h., es versucht ähnliche Eingabemuster in ähnliche Kategorien zu klassifizieren. Das bekannteste Beispiel unüberwachten Lernens sind die selbstorganisierenden Karten von Kohonen. Diese Art des Lernens ist biologisch am plausibelsten, ist aber in dieser Form nicht für alle Fragestellungen geeignet.

      Abbildung 5 : Überwachtes Lernen

Die Backpropagation-Lernregel ist ein überwachtes Lernverfahren, denn zu jedem Eingabemuster wird dem Netz das korrekte bzw. erwartete Ausgabemuster präsentiert. Aufgabe des Lernverfahrens ist es, die Gewichte (Gewichtverbindungsfunktion) des Netzes so zu ändern, dass das Netz nach wiederholter Präsentation der Paare von Eingabe- und Ausgabemuster diese Assoziation selbständig auch für unbekannte, ähnliche Eingabemuster durchführen kann (Abbildung 5).

Dieser Ansatz ist biologisch nicht plausibel, da hier die gewünschte Aktivierung (Gewichte) aller Ausgabeneuronen vorgegeben werden (Ausgabemuster). Auf die Mathematik zur Backpropagation-Lernregel sei in [1] hingewiesen.

3 Neuronale Netze in der Qualitätprüfung

Neuronale Netze wurden in der Qualitätsprüfung mit Farbstoffen aus den Sortimenten Astrazon(R) und Resolin(R) trainiert. In diesem Kapitel wird das neuronale Netz in bezug auf Topologie und Lernverfahren vorgestellt und die damit erzielten Ergebnisse. Auf die Darstellung der Ergebnisse bezüglich des Resolin(R)-Sortiments wird, da sie vergleichbar mit den des Astrazon(R)-Sortiments sind und den Umfang des Artikels deutlich vergrößern würden, verzichtet.

3.1 Farbmetrische und coloristische Daten

Die farbmetrischen Daten auf Basis des CIELAB-Systems und die coloristischen Beurteilungen, die in der routinemäßigen Bearbeitung der Farbstoffe im ca. Jahreszeitraum angefallen sind, wurden durch ein Laborinformations- und Managements ystem (LIMS) gesammelt. Zum Training des neuronalen Netzes wurden die CIELAB-Maßzahlen delta L*, delta a* und delta b* um die Farbstärke (Restfarbabstand) korrigiert und die visuelle coloristische Beurteilung Bunttondifferenz und Buntheitsdifferenz verwendet.

Auf die Literatur zur Farbmetrik sei in [4], [5] und [6] hingewiesen.

Das neuronale Netz wurde mit dem Programm DataEngine V1.5 der M I T-GmbH, Aachen, simuliert.

3.2 Topologie und Lernverfahren der neuronalen Netze

Die eingesetzten neuronalen Netze entsprechen von der Topologie her der Struktur wie das Netz der Abbildung 5. Es besitzt 3 Eingangsneuronen, 2 verdeckte Schichten mit jeweils 4 Neuronen und 4 Ausgangsneuronen.

Als Lernverfahren, wie bereits erwähnt, wird der Backpropagation-Algorithmus eingesetzt. Den 3 Eingangsneuronen werden die delta L*, delta a* und delta b* aus dem CIELAB-System normiert zwischen 0 und 1 [7], präsentiert. Die 4 Ausgangsneuronen präsentieren die 4 Ergebnisse (Größe und Richtung der Bunttondifferenz, Größe und Richtung der Buntheitsdifferenz), ebenfalls normiert zwischen 0 und 1. In der Trainingsphase wird dem Netz als Ausgabemuster die visuelle Beurteilung (Bunttondifferenz und Buntheitdifferenz) vorgelegt und der Übereinstimmungsfehler durch das Netz zurückpropagiert. Das Ausgabemuster ist ebenfalls zwischen 0 und 1 normiert.

Ein kleiner Anteil “Test-Daten” wurde der Trainingsmenge vor dem Training entnommen. Diese Daten wurden verwendet, um die “Qualität” des Netzes zu bestimmen, d. h., es wurde ein Vergleich zwischen der Netzvorhersage und der coloristischen Beurteilung durchgeführt. Dieser Vergleich wird im folgenden vorgestellt.

3.3 Beispiel Astrazon(R) Goldgelb GL-E 200 %

Das Netz wurde mit 95 Trainingsdatensätzen mit oben beschriebenem Inhalt (CIELAB, visuelle Beurteilung) trainiert.

In der Trainingsphase wurde dem Netz 1000-mal jeder einzelne Datensatz aus der Trainingsdatenmenge präsentiert, d .h., eine Epoche (dieser Begriff erscheint in der Abbildung 6) besteht aus 95 Datensätzen und das Training umfaßt 1000 Epochen. Die Gesamtpräsentation beträgt 95.000-mal. Die Abnahme des Übereinstimmungsfehlers ist in der  Abbildung 6 dargestellt.

Abbildung : Übereinstimmungsfehler

Die Abbildung läßt erkennen, dass ab ca. der 700-sten Epoche der Netzfehler nicht mehr nennenswert gegen 0 konvergiert und eine längere Traningsphase mit diesen Datensätzen nicht sinnvoll erscheint. Der Übereinstimmungsfehler (Netzfehler) lässt vermuten, dass zukünftige Vorhersagen der visuellen Beurteilung möglich sind, aber nicht eine konkrete Aussage über die Qualität der Vorhersage. Die Qualität des Netzes kann nur, wie weiter oben schon erwähnt, mit Hilfe der Test-Daten ermittelt werden.

Die folgenden Abbildungen beschreiben die Netz-Qualität für dieses Produkt.

Abbildung 7 und Abbildung 8: Vergleich der Bunttondifferenz mit der neuronalen Aussage

Die Vorhersage der Größe und Richtung des Farbabstandes erfolgt durch das neuronale Netz mit einer sehr guten Übereinstimmung. Bei der Interpretation der Abbildung 8 ist darauf zu achten, dass die Größe der Abweichung zwischen Soll und Ist keinerlei Aussage macht, denn die Y-Achse beschreibt nur den Farbort. Die Vorhersage Nr. 17, die in der Grafik eine große Differenz zwischen Soll und Ist zeigt, macht dies besonders deutlich: Die neuronale Vorhersage für diese Probe ist gelb und die coloristische Beurteilung grün. Die Größe des Farbabstandes liegt gerade im Bereich der coloristischen Wahrnehmung (s. Abbildung 7, “Spur”)! Die Vorhersage Nr. 7 stellt eine auffällige Abweichung dar.

Die Buntheitsdifferenz wird durch die nächsten beiden Abbildungen (9 und 10) beschrieben:

Abbildung 9 und Abbildung 10: Vergleich der Buntheitsdifferenz mit der neuronalen Aussage

Die Abbildungen 9 und 10 zeigen eine gute Übereinstimmung zwischen der Vorhersage durch das neuronale Netz und der coloristischen Beurteilung. Der Wert Nr. 16 stellt in Abbildung 9 eine deutliche Abweichung dar, deren Größe an den tolerierten Qualitätsgrenzwert heranreicht. Die Ursachen, die für das Zustandekommen solch deutlicher Abweichungen verantwortlich sind, sind vielschichtig. Nicht “plausible” Daten können und werden sich in jeder Datenmenge befinden. Diese Daten verlieren durch Maßnahmen wie im nächsten Kapitel beschrieben, ihren Einfluss auf die Qualität des Netzes.

3.4 Können Farbstoffe mit gleichem Buntton mit einem neuronalen Netz bearbeitet werden?

Der Vorteil, der sich bei einer Bejahung dieser Frage bietet, ist der, dass die Trainingsdatenmenge meist erheblich größer ist, als wenn mit einem bestimmten Farbstoff ein neuronales Netz trainiert wird. Dadurch ist oft erst ein Training des Netzes möglich, um eine vernünftige Vorhersage zu erhalten. Diese Erfahrung wurde mit dem Astrazon(R)-Schwarz-Netz gemacht. Deren Vorhersagequalität erwies sich als deutlich schlechter, weil zum Trainingszeitpunkt nur 57 Datensätze zur Verfügung standen. Diese Anzahl Datensätze erwies sich als zu gering und in der Merkmalausprägung (die coloristische Beurteilung) als zu eingeschränkt, d. h., größere Abweichungen vom Standard kamen zu selten vor, um das neuronale Netz zu trainieren.Ein weiteres Problem ist, dass kleine Datensätze durch das Netz “auswendig” gelernt werden können.

Ein weiterer Vorteil, den große Datensätze mit sich bringen, ist der, dass diese damit trainierten Netze “fehlertoleranter” [1, 7] sind. Dies bedeutet, dass Daten, wie der Datenpunkt Nr. 16 in Abbildung 9 einen geringen Einfluss auf die Qualität der Netze ausüben.

Geprüft wurde die eingangs gestellte Frage mit den gelben Farbstoffen aus dem Astrazon(R)-Sortiment. Die Trainingsdatenmenge besteht aus 287 Datensätzen und die Test-Daten aus 32. Die Topologie und das Lernverfahren des neuronalen Netzes wurde beibehalten.

Die Netz-Vorhersagen auf Basis der Test-Daten sind in den nächsten Abbildungen zu sehen:

      Abbildung 11: Größe der Bunttondifferenz
      Abbildung 12: Richtung der Bunttondifferenz
      Abbildung 13: Größe der Buntheitsdifferenz

      Abbildung 14: Richtung der Buntheitsdifferenz

Die obigen Abbildungen (11 bis 14) lassen erkennen, dass das neuronale Netz in der Lage ist, für das gesamte Astrazon(R)-Gelb-Sortiment eine Vorhersage über den visuellen Farbabstand auf Basis der Remissionsdaten durchzuführen. Der deutliche Unterschied in der  ab Vorhersage 14 bis 18 und der Vorhersage 28 ist im Zusammenhang mit  zu sehen. Der Unterschied in der Bunttondifferenz erstreckt sich “nur” über den Bereich “Spur” bis “wenig”.

4 Zusammenfassung

Neuronale Netze wurden aus dem Astrazon(R)- und Resolin(R)-Sortiment über den Farbton gelb, rot, blau und schwarz trainiert. Die Qualität dieser Netze entspricht der Qualität des dargestellten Beispiels Astrazon(R)-Gelb-Netze. Eine Ausnahme ist das Astrazon(R)-Schwarz-Netz, deren Vorhersagequalität deutlich schlechter ist, weil zum Trainingszeitpunkt nur 57 Datensätze zur Verfügung standen. Diese Anzahl erwies sich als zu gering und in der Merkmalausprägung als zu eingeschränkt, d. h., größere Abweichungen vom Standard kamen zu selten vor.

Das Astrazon(R)-Schwarz-Netz zeigt, dass eine bestimmte Anzahl Datensätze zum Training vorhanden sein muss, die von der Netz-Topologie abhängig ist. Es gilt, je größer das Netz desto größer die Trainingsdatenmenge. Große Netze sind in der Lage, kleine Trainingsdatenmengen “auswendig zu lernen”  [7].

Das Training der Netze mit der oben beschriebenen Topologie und einer Anzahl Datensätze um die 500 benötigt auf einem 586iger-PC unter Windows 95 ca. 45 Minuten Rechenzeit.

Grundsätzlich kann festgestellt werden, dass neuronale Netze zur Vorhersage des visuellen Farbabstandes eingesetzt werden können.

Neuronale Netze sind in ihrer Vorhersage stabiler als der einzelne Colorist, weil die Netze mit den Beurteilungen von mehreren Coloristen trainiert wurden und frei von der “Tagesform” des Coloristen sind.

Wegen den oben genannten Gründen (Trainingsdatenmenge), eignen sie sich nur für das Routinegeschäft. Das Routinegeschäft wird aber “standortunabhängig”, d. h., die Fähigkeiten der Coloristen, die das neuronale Netz trainiert haben, lassen sich an einen anderen Produktionsort transportieren.

5 Literaturstellen

[1] Andreas Zell, Simulation Neuronaler Netze, Addison-Wesley, 1994

[2] W. H. Kettler, J. Spehl, M. Wölker, Modellierung nichtlinearer Anpassungsprobleme mit Neuronalen Netzen am Beispiel der Farbrezeptberechnung, Workshop SNNS93, Uni. Stuttgart

[3] J. M. Bishop, M. J. Bushnell, S. Westland, Application of Neural Networks to Computer Recipe Prediction

[4] A. Brockes, D. Strocka, A. Berger-Schunn, Farbmessung in der Textilindustrie, Bayer Farben Revue, 1986, 24. Jahrgang

[5] Karl Huff, Visuelle Abmusterung und praktische Farbmessung in der Kunststoffindustrie, Bayer, 1993

[6] H. G. Völz, Industrielle Farbprüfung, VCH, 1990

[7] Hans-Jürgen Zimmermann, Datenanalyse: Anwendung von DataEngine mit Fuzzy Technologien und Neuronalen Netzen, VDI Verlag, 1995

Zum Seitenanfang

Hat der Inhalt Ihnen weitergeholfen und Sie möchten diese Seiten unterstützen?

Impressum

Datenschutz