Zurück...

Faktorenanalyse

Über die Faktorenanalyse wird der Wirkzusammenhang zwischen zwei oder mehreren Variablen (Merkmale) untersucht. Es ist eine methodische Nähe zur Regressions- und Korrelationsanalyse gegeben.
Muss jedoch eine große Zahl von Einflussvariablen berücksichtigt werden, kann sich durch eine mögliche Abhängigkeit der Einflussvariablen untereinander eine unbefriedigende Auswirkung auf die abhängige(n) Variable(n) ergeben.

Bild 1

Durch obige Grafik (Bild 1) soll die Vermutung angedeutet werden, dass die Variable C möglicherweise von Variablen A, B und/oder einer weiteren unbekannten Variable X, abhängig ist. Diese Vermutung ist eine Voraussetzung zur Anwendung der Faktorenanalyse.

Das Ziel der Faktorenanalyse ist es, die voneinander unabhängigen Einflussfaktoren zu ermitteln und dann mit diesen die weiteren Analysen durchzuführen (strukturentdeckendes Verfahren). Das bedeutet, dass mit der Faktorenanalyse eine Informationsreduktion (Bild 2) einhergeht und somit die Komplexität des “Problems” vereinfacht werden kann.

Bild 2

Die Faktorenanalyse wird auf Basis des folgenden Beispiels entwickelt. Ich möchte hier schon erwähnen, dass der Rechenaufwand nicht unerheblich ist und das Statistikprogramm R als Hilfsmittel herangezogen wird. Sollten Sie ein anderes Statistikprogramm, vielleicht SPSS, bevorzugen, seien Sie großzügig, wenn Sie die berechneten Ergebnisse vergleichen. Sie werden sehen, dass die Faktorenanalyse Ihnen einige Variationsmöglichkeiten bietet, die auf das Ergebnis durchschlagen werden/können

Nun das Beispiel:
100 Personen beurteilen 6 Produkte (A bis F) bezüglich 5 Merkmale, die die Eigenschaft des Produktes beschreiben. Die Ausprägung (Beurteilung) der Merkmale kann zwischen 1 (niedrig) und 10 (hoch) liegen (Bild 3).

Bild 3

Die Zellen der folgenden Tabelle (Tabelle 1, m*n-Matrix mit m=6 und n=5) beinhalten den Merkmalsmittelwerte (M1 bis M5) des jeweiligen Produktes über die 100 befragten Personen. Bei dieser Vorgehensweise wird schon ein Informationsverlust hingenommen, nämlich den Verlust der Information über die Varianz des Merkmalmittelwerts. Denken Sie hier über eine Verteilungsprüfung nach!

 

M1

M2

M3

M4

M5

Produkt A

2

1

2

2

3

Produkt B

3

7

4

3

5

Produkt C

5

6

6

5

6

Produkt D

5

7

7

6

7

Produkt E

3

2

3

7

8

Produkt F

4

4

5

7

9

Tabelle 1

Im diesem Beispiel, wie oben erwähnt, konnten die befragten Personen eine Bewertung der Merkmale im Bewertungsraum zwischen 1 =< und <= 10 vornehmen.
Durch diese Einheitlichkeit könnten Vermutungen über die Datenstruktur gemacht werden, das z. B. die Merkmale M1 bis M3 und die Merkmale M4 und M5 jeweils einer Gruppe angehören. Unterscheiden sich die Ausprägungen der Merkmale erheblich, z. B. Einkommen und Alter, sollten die Ausprägungen normiert werden. Die Voraussetzung zur Normierung ist die Berechnung des Mittelwerts und der Standardabweichung (Tabelle 2):

 

M1

M2

M3

M4

M5

Produkt A

2

1

2

2

3

Produkt B

3

7

4

3

5

Produkt C

5

6

6

5

6

Produkt D

5

7

7

6

7

Produkt E

3

2

3

7

8

Produkt F

4

4

5

7

9

Mittelwert:
Standardabw.:

3,67
1,21

4,5
2,59

4,5
1,87

5,0
2,1

6,33
2,16

Tabelle 2

Die Normierung wird über die nebenstehende Formel (F1) durchgeführt und in Tabelle 3, der Z-Matrix, dargestellt:

F 1

 

M1

M2

M3

M4

M5

Produkt A

-1,38

-1,35

-1,34

-1,43

-1,54

Produkt B

-0,55

0,97

-0,27

-0,95

-0,62

Produkt C

1,10

0,58

0,80

0,00

-0,15

Produkt D

1,10

0,97

1,34

0,48

0,31

Produkt E

-0,55

-0,97

-0,80

0,95

0,77

Produkt F

0,28

-0,19

0,27

0,95

1,23

Tabelle 3, Z-Matrix

Der erste Schritt zur Überprüfung obiger Annahme ist die Quantifizierung der Beziehung zwischen den Merkmalen M1 bis M5 über den Korrelationskoeffizienten. Durch die Korrelation lässt sich eine Aussage über die Stärke des Beziehungszusammenhanges machen.
An dem Beispiel der Korrelation zwischen den Merkmalen M1 und M2 soll auf die drei verschiedenen Arten des Zusammenhanges hingewiesen werden, da diese eine wesentliche Voraussetzung für die Anwendung der Faktorenanalyse sind:

  1. Die Korrelation zwischen M1 und M2 resultiert daraus, dass sich durch eine Erhöhung von M1 sich auch M2 erhöht.
  2. Die Korrelation zwischen M1 und M2 resultiert daraus, dass sich durch eine Erhöhung von M2 sich auch M1 erhöht.
  3. Für die Korrelation zwischen M1 und M2 ist eine hinter diesen beiden Merkmalen M1 und M2 stehende Größe inhaltlich verantwortlich. Diese Größe stellt also die Ursache für die Korrelation dar.

Sie müssen sich darüber im Klaren sein, welche der obigen 3 Interpretationsmöglichkeiten in Frage kommt. Die Faktorenanalyse kann nur dann angewendet werden, wenn die 3. Möglichkeit zutrifft (siehe Bild 2)!

In Folgendem gehen wir natürlich davon aus, dass die 3. Möglichkeit für unser Beispiel zutrifft. Wenn also hinter den obigen Merkmalen Faktoren stehen, entsteht ein weiterer - aber wie oben schon erwähnt - gewünschter Informationsverlust, da die Zahl der Faktoren geringer sein soll, als die Zahl der Merkmale.

Die Stärke und Richtung des Zusammenhanges zwischen den Merkmalen und Faktoren, die “Korrelation”, wird Faktorenladung und die Größe (Wert) der Faktoren wird Faktorwert genannt (Bild 4).

Die Berechnung der Korrelationskoeffizienten führt zur Korrelationsmatrix R, dargestellt in Tabelle 4. Die Korrelationskoeffizienten der Diagonale entsprechen 1, da Korrelation z. B. zwischen M1 und M1 natürlich immer 1 ergibt. Die Korrelation, verzeihen Sie mir den Hinweis, zwischen z. B. M1 und M2 ergibt 0,702 und zwischen M2 und M1 ebenso 0,702. Das Wechseln der Abhängigen und Unabhängigen ist farblich hervorgehoben.

In der Tabelle 5 sind 2 Bereiche, M1 bis M3 und M4/M5 farblich hervorgehoben. Aufgrund der Korrelation könnten zwei Faktoren hinter den 5 Merkmalen vermutet werden.

Bild 4

 

M1

M2

M3

M4

M5

M1

1,000

0,702

0,971

0,551

0,510

M2

0,702

1,000

0,805

0,074

0,143

M3

0,971

0,805

1,000

0,459

0,445

M4

0,551

0,074

0,459

1,000

0,971

M5

0,510

0,143

0,445

0,971

1,000

Tabelle 4, Korrelationsmatrix R

 

M1

M2

M3

M4

M5

M1

1,000

0,702

0,971

0,551

0,510

M2

0,702

1,000

0,805

0,074

0,143

M3

0,971

0,805

1,000

0,459

0,445

M4

0,551

0,074

0,459

1,000

0,971

M5

0,510

0,143

0,445

0,971

1,000

Tabelle 5, Korrelationsmatrix R, Faktoren?

Eignung der Korrelationsmatrix

Bevor mit der eigentlichen Faktorenanalyse gestartet werden kann, sollte die Korrelationsmatrix auf ihre Eignung geprüft werden.
Insbesondere wenn, wie in der Tabelle 4(5) dargestellt, Koeffizienten um 0,7 und 0,8 berechnet wurden. Es sei hier, wenn derartige Ergebnisse vorliegen, noch einmal auf eine Verteilungsprüfung hingewiesen.
Zur Prüfung, ob ein statistisch gesicherter Zusammenhang zwischen den Merkmalen M1 und M2 besteht, kann der t-Test der Korrelationskoeffizienten herangezogen werden. Wenn Sie die Prüfung durchgeführt haben, werden Sie feststellen, dass mit P=95% der Koeffizent 0,7 darauf hinweist, dass kein gesicherter Zusammenhang besteht. Prüfen Sie noch den Koeffizienten 0,8 für die Merkmale M2 und M3 ebenfalls mit P=95%, werden Sie ein grenzwertiges Ergebnis erhalten. Für dieses Beispiel wird aber weiterhin obige Matrix (Tabelle 4) verwendet.

Ein weiterer Test zur Eignung der Merkmale zur Faktorenanalyse ist der Bartlett-Sphärentest, dessen Prüfgröße v nach

        v = -(n-1-(2m+5)/6) * ln(Rdet)        F 2

          n = Anzahl der Untersuchungsobjekte (Produkt A bis F)
          m = Anzahl der Merkmale (M1 bis M5)
          Rdet = Determinante der Korrelationsmatrix R

berechnet wird. Die Prüfgröße v folgt bei Normalverteilung einer Chi-Quadrat-Verteilung mit einem Freiheitsgrad f = m(m-1)/2. Es kann die Hypothese aufgestellt werden, dass eine Faktorenanalyse sinnvoll ist, wenn die Prüfgröße v > f,P ist
Für das obige Beispiel nimmt die Prüfgröße v folgenden Wert an:

        v = -(6-1-(2*5+5)/6 * ln(0,00021214) = 21,146

        f = m(m-1)/2 = 5(5-1)/2 = 10

        f=10,P=95%= 18,31    (Tabellenvergleichswert)

          v (21,146) > (18,31)

Da die Prüfgröße v größer ist als der Chi-Quadrat-Vergleichswert, können die Merkmale zur Faktorenanalyse herangezogen werden.

Die folgenden Methoden zur Eignungsprüfung werden nur noch kurz beschrieben, da sie von verschiedenen statistischen Programmen angeboten werden:

  • Inverse Korrelationsmatrix
    Hier wird von der Eignung zur Faktorenanalyse ausgegangen, wenn die Inverse der Korrelationsmatrix eine Diagonalmatrix darstellt. D. h., die Elemente der inversen Matrix die nicht auf der Diagonalen liegen, sollen möglichst nahe bei Null liegen. Da es kein allgemein gültiges Kriterium dafür gibt, wie weit diese Elemente von Null abweichen dürfen, ist die Entscheidung, ob die Korrelationsmatrix geeignet ist oder nicht, nicht sehr gesichert.
  • Anti-Image-Kovarianz-Matrix
    Hier wird davon ausgegangen, dass die Varianz einer Variablen in zwei Teile zerlegbar ist, das Image und das Anti-Imgae. Unter Image wird der Teil der Varianz verstanden, der über eine multiplen Regressionanalyse erklärt werden kann und der Anti-Image-Teil von den übrigen Variablen unabhängig, also nicht erklärbar ist. Die Variablen sind dann für eine Faktorenanalyse geeignet, wenn der Anti-Image-Teil möglichst gering ausfällt. Auch hier bedeutet dies, dass die Elemente der Anti-Image-Kovarianz-Matrix die nicht auf die Diagonale fallen, möglichst nahe bei Null liegen müssen.
    Ebenso gilt hier der Hinweis,wie bei der inversen Korrelationsmatrix, der nicht sehr gesicherte Entscheidung . Als Empfehlung kann herangezogen werden, dass die Elemente der Diagonalen absolut mind. 75 % gegenüber den nicht auf der Diagonalen liegenden Elementen ausmachen müssen.
  • Kaiser-Meyer-Olkin-Kriterium (KMO-Kriterium)
    Auf Basis der Anti-ImageKovarianz-Matrix wurde durch Kaiser, Meyer und Olkin eine Prüfgröße, die als mesaure of sampling adequacy (MSA) bezeichnet wird, entwickelt. Diese Prüfgröße MSA zeigt an, in welchem Ausmaß die Variablen zusammengehören und dient als Hinweis, ob eine Faktorenanalyse sinnvoll ist. Der Wertebereich der Prüfgröße MSA liegt zwischen 0 und 1 und folgende Beurteilung wird vorgeschlagen (Tabelle 6):

    MSA-Wert

    Bewertung

    >= 0,9

    marvelous

    >= 0,8

    meritorious

    >= 0,7

    middling

    >= 0,6

    mediocre

    >= 0,5

    miserable

    < 0,5

    unacceptable

    Tabelle 6



    Eine Korrelationsmatrix mit einem MSA < 0,5 wird als nicht geeignet zur Faktorenanalyse angesehen. Wünschenswert ist ist ein MSA-Wert von >= 0,8.
    In der Literatur wird der MSA-Wert als ein wichtiges Kriterium bezeichnet und ggf. durch Ihr Faktorenanalyseprogramm berechnet und angeboten. Wie immer, liegt die Beurteilung der MSA-Größe bei Ihnen.

Extraktion der Faktoren, mathematische Basis

Nach dem die Korrelationsmatrix R auf ihre Eignung geprüft wurde und wir zur Faktorenanalyse mit dem Statistikprogramm R kommen, sollte die mathematische Basis als Übersicht dargestellt werden.
Dazu wird von der Annahme ausgegangen, dass jedes Element der Tabelle 2 oder der Z-Matrix (Tabelle 3) sich als Linearkombination der hypothetisch vorhandenen Faktoren darstellen lässt.

              Z = P * AT           F 3

              Z = Z-Matrix
              P = Faktoren-Matrix
              AT= Transponierte Faktorenladungsmatrix

Weiter oben wurde zur Berechnung des Korrelationskoeffizienten zum Aufbau der Korrelationsmatrix R durch den Verweis auf die entsprechende Seite als Möglichkeit dargelegt. Die Korrelationsmatrix R lässt sich auch wie folgt berechnen:

F 4

R: Korrelationsmatrix
Z: normierte Ausgangsdatenmatrix
m:
Zeilen der m*n-Z-Matrix (Ausgangsmatrix)

Da Z = P * AT entspricht, lässt obige Formel ( F 4) auch wie folgt darstellen...

F 5

... und nach der Auflösung der Klammern von F 5 ergibt sich:

F 6

Da die Daten standardisiert sind, lässt sich der gelb markierte Ausdruck in Gleichung F 6 mit der Berechnung der Korrelationsmatrix R vergleichen und kann als Korrelationsmatrix der Faktoren PR bezeichnet werden. F6 nimmt dann folgende Form an (F7):

F 7

Unter der Annahme, dass die Faktoren als unkorreliert angenommen werden (siehe hier nächsten Abschnitt der grafischen Interpretation der Faktoren), entspricht PR einer Einheitsmatrix und daher wird F7 zu ...

              R = AAT               F 8

... vereinfacht. Durch F 8 wird der Zusammenhang zwischen Korrelationsmatrix R und Faktorenladungsmatrix A beschrieben und auch als das Fundamentaltheorem der Faktorenanalyse bezeichnet.
Wie oben schon erwähnt, ist die wesentliche Aufgabe der Faktorenanalyse die Informationsverdichtung gegenüber der Korrelationsmatrix R (respektive der Ausgangsdatenmatrix Z). Hier stellt sich dann aber die Frage nach der Anzahl der nötigen Faktoren, um möglichst wenig Informationen zu verlieren. Es geht also darum, den Anteil der erklärenden Varianz möglichst hoch und den Anteil der Restvarianz (Messfehler,...) demenstsprechend niedrig zu halten. Dieser Aspekt findet in F 8 durch Ergänzung um die Restvarianz E Berücksichtigung:

              R = AAT + E        F 9

              E: Restvarianz

Dieser Aspekt wird auch als Kommunalitätsproblem beschrieben.

Grafische Interpretation der Faktoren

Der Informationsgehalt einer Korrelationsmatrix lässt sich auch graphisch darstellen, indem der Korrelationskoeffizient als Winkel zwischen z. B. den als Vektoren abgebildeten Merkmalen M1 und M2 beschrieben wird.

Stehen die Vektoren senkrecht aufeinander (orthogonal), d. h. der Winkel zwischen ihnen beträgt 90°, sind sie (die Merkmale M1 und M2) voneinander unabhängig. In diesem Fall ist der Korrelationskoeffizient r = 0.
Sind die Vektoren deckungsgleich, d. h. der Winkel zwischen ihnen beträgt 0°, besteht ein funktionaler Zusammenhang. In diesem Fall ist der Korrelationskoeffizient r = 1.
Der Zusammenhang zwischen Winkel und Korrelationskoeffizient r ist

             F 10

und wird auf der Seite Vektoren beschrieben (es wird von einer Normierung der Vektoren auf 1 ausgegangen).
Die nebenstehende animierte Grafik (Bild 5) zeigt in 10°-Schritten von 90° bis 0° den Zusammenhang zwischen Winkel und Korrelationskoeffizienten.

Bild 5

Die Korrelationsmatrix R lässt sich nun auch über F 10 als Winkelmatrix darstellen (Tabelle 7).

 

M1

M2

M3

M4

M5

M1

0

45,4

13,8

56,6

59,3

M2

45,4

0

36,4

85,8

81,8

M3

13,8

36,4

0

62,7

63,6

M4

56,6

85,8

62,7

0

13,8

M5

59,3

81,8

63,6

13,8

0

Tabelle 7

Nun ist auch graphisch zu erkennen (Bild 6), dass ein Zusammenhang zwischen M1 und M3 sehr wahrscheinlich ist und auch das zwischen M1 und M4 bzw. M5 mit hoher Wahrscheinlichkeit kein Zusammenhang besteht. Der unklare Zusammenhang zwischen M1 und M2 tritt auch graphisch hervor.

 

In Bild 6 wurde nur der Zusammenhang zwischen der Variable M1 und den Variablen M2 bis M5 abgebildet.
Sie können sich nun sicher vorstellen, dass mit steigender Zahl der Merkmale - und somit auch die Zahl der dann daraus resultierenden Vektoren - die Dimensionen zur Darstellung steigt. Graphisch ausgedrückt, ist das Ziel der Faktorenanalyse, die Zahl der nötigen Dimensionen möglichst gering zu halten. Die Dimensionen geben dann die Anzahl der Faktoren an. Bild 7 stellt eine Veranschaulichung der Dimensionen dar und wird im Folgenden noch verfeinert.

 

Um die Komplexität herauszunehmen, dient folgendes einfaches Beispiel aus 2 Vektoren, deren Resultierende der Faktor und der Winkel zwischen Vektor und Resultierende die Einflussnahme, also die Faktorenladung, auf die Resultierende darstellt (Bild 8).
Der Winkel zwischen den Vektoren Ma und Mb beträgt 40° und nach F 10 entspricht dies einem Korrelationskoeffizient r = 0,766. Die Resultierende entspricht in diesem Beispiel die Winkelhalbierende und der Winkel 20° zwischen Resultierende und den Vektoren gibt die Wirkkraft (Einflussnahme) der Vektoren auf die Resultierende an.

Bild 6

Bild 7

Bild 8

Diese Wirkkraft repräsentiert den Korrelationskoeffizienten zwischen dem Vektor Ma/b und dem Faktor (Resultierende) und nach F 10 entspricht ein Winkel von 20° einem Korrelationskoeffizienten von 0,9397. Wie oben erwähnt, wird dieser Korrelationskoeffizient als Faktorenladung bezeichnet.
Analog nach diesem einfachen Beispiel, kann nun die Resultierende - der Faktor 1 im Bild 9 - gesucht werden. Gefordert ist, dass die Faktoren, wie oben schon für die Vektoren beschrieben, voneinander unabhängig sind und somit senkrecht (orthogonal) aufeinander stehen. Für 3 Faktoren reicht unsere Vorstellungskraft im dreidimensionalen Raum sicher noch aus, aber dies ist für die Faktorenanalyse unerheblich.

Wir gehen weiterhin davon aus, dass 2 Faktoren hinter den 5 Merkmalen stehen.
Die Wirkkraft (Faktorenladung) der Vektoren auf die Faktoren kann nun genauso wie in dem einfachen Beispiel, basierend auf Bild 8, ermittelt werden.

Da es an dieser Stelle didaktisch günstig ist, soll hier auf die Faktorenanalysenmethode Hauptachsenanalyse mit Rotation hingewiesen werden.
Aufgrund der Darstellung in Bild 9, kann davon ausgegangen werden, das die Merkmale (Variablen) im Wesentlichen auf den Faktor 1 laden.

Bild 9

Zur besseren Interpretation der Faktoren bieten diverse Programme die Möglichkeit der Achsenrotation an. Durch die Rotation kann eine bessere Ladung auf die Faktoren erreicht werden.
Durch die im Bild 10 dargestellte Rotation soll nun eine verbesserte Ladung auf beide Faktoren erreicht werden (es stellt ein Beispiel dar, die Sinnhaftigkeit wird nicht hinterfragt).
Es handelt sich in diesem Beispiel um eine rechtwinklige

Bild 10

(orthogonale) Rotation. Diverse Programme bieten diese Art der Rotation als Varimax-Rotation an. Hier wird versucht, die optimale rechtwinklige Drehung durch die Maximierung der erklärenden Varianz der Ladung zu erreichen.

Extraktion der Faktoren

Bisher gehen wir davon aus, dass hinter den 5 Merkmalen 2 Faktoren stehen. Letztlich gibt es keine eindeutige Möglichkeit, die Zahl der Faktoren eindeutig zu bestimmen und hier ist Ihre subjektive Einschätzung nötig.
Als Möglichkeit zur Abschätzung der nötigen Faktoren, kann das Kaiser-Kriterium herangezogen werden. Diesem Kriterium nach, ist die Zahl der Faktoren gleich der Zahl der Faktoren mit einem Eigenwert > 1. Die Eigenwerte (Eigenvalue) entsprechen der Summe der quadrierten Faktorenladungen eines Faktors über alle Variablen und ist eine Beurteilungsgröße für die erklärte Varianz der Merkmale des jeweiligen Faktors.
Wenn der Eigenwert < 1 ist, dann ist also der erklärte Varianzanteil <1 und ist demnach kleiner als der Varianzanteil der jeweiligen standardisierten Merkmale und somit leisten diese Faktoren keinen Beitrag mehr.
Die Berechnung der Eigenwerte zur Abschätzung der Faktorenzahl, erfolgt mit R über die Korrelationsmatrix R, mit erheblich mehr Dezimalstellen in Tabelle 8 dargestellt,...

1,000000

0,701810

0,971008

0,551107

0,509647

0,701810

1,000000

0,805366

0,073671

0,143070

0,971008

0,805366

1,000000

0,458682

0,445385

0,551107

0,073671

0,458683

1,000000

0,971008

0,509647

0,143070

0,445385

0,971008

1,000000

Tabelle 8, Korrelationsmatrix R mit R berechnet

... und zeigt folgende Werte (Tabelle 9):

3,3034

1,4448

0,2229

0,0176

0,0113

Tabelle 9, Eigenwerte, Faktorenanzahl

Nach dem Kaiser-Kriterium ist die Anzahl der Faktoren = 2, da der Eigenwert für den 3. Faktor schon 0,2229 beträgt.

Mit der durch das Kaiser-Kriterium bestätigten Annahme der 2 Faktoren wird nun die Faktorenanalyse in R mit folgenden Parametern aufgerufen:

Die Hypothese der 2 Faktoren wird bestätigt (eine R-Ausgabe) und folgende Faktoren-Ladungs-Matrix ausgegeben (Tabelle 10):

Loadings:

  

Faktor1

Faktor2

M1 

0,891

0,407

M2 

0,864

 

M3 

0,950

0,305

M4 

0,168

0,983

M5 

0,160

0,959

Tabelle 10, Faktorenladungsmatrix A

Die Merkmale 1 bis 3 laden mehr oder weniger gut auf den 1. Faktor hoch. Die Merkmale 4 und 5 laden hingegen ziemlich gut auf den 2. Faktor hoch.

Die Interpretation der Faktoren erfordert natürlich Kenntnisse über die Produkte, die durch die Merkmale beschrieben werden. Z. B. könnte sich hinter dem 1. Faktor Qualitäts- und hinter dem 2. Faktor ein Wirtschaftlichkeitsaspekt befinden. Wenn wir bei diesen Aspekten beispielhaft bleiben, ist der Wirtschaftliche besonders deutlich durch die hohe Annäherung der Faktorenladung an 1.

Ein weiterer Schritt in der Faktoreninterpretation ist die Bestimmung der Faktorenwerte. Durch die bisherigen Schritte konnten die 5 Merkmale auf 2 Faktoren und deren Ladung reduziert werden. Nun fehlt aber noch zur Beurteilung der Beeinflussung der 2 Faktoren auf unsere Produkte eine weiter Kenngröße, der Faktorenwert P.
Weiter oben (F3) wurde schon darauf hingewiesen, dass die normierte Ausgangsmatrix Z eine Linearkombination der Faktorenwertmatrix P und der Ladungsmatrix A ist.
Da die Ladungsmatrix in der Regel durch die Informationsreduktion keine quadratische Matrix ist, ist ein einfaches Lösen der Gleichung F10 nicht möglich:

            P = Z * (AT)-1           F 10
             

            Z = Z-Matrix
            P = Faktoren-Matrix
            AT= Transponierte Faktorenladungsmatrix

Durch Umstellen der Gleichung F10 in folgende Form

            P = Z * A(AT*A)-1     F11

wird eine lösbare Form erhalten. Die Berechnung für unser Beispiel, Z-Matrix Tabelle 3 und Faktorenladungsmatrix Tabelle 10, ergibt als Faktorenwertmatrix P folgende Ergebnisse (Tabelle 11):

 

Faktor 1

Faktor 2

Produkt 1

-1,172

-1,266

Produkt 2

0,322

-1,001

Produkt 3

0,957

-0,178

Produkt 4

1,208

0,211

Produkt 5

-1,142

1,079

Produkt 6

-0,169

1,153

Tabelle 11

Als Grafik (Bild 11):

Was sagt nun der Faktorenwert P aus? Ein negativer Faktorenwert bedeutet, dass das Produkt in Bezug auf diesem Faktor im Vergleich zu den anderen Produkten unterdurchschnittlich bewertet wurde. Z. B. ist Produkt 1 besonders unwirtschaftlich und von niedriger Qualität.
Ein Faktorenwert um 0 bedeutet, dass das Produkt durchschnittlich ist. Sie ahnen es schon, ein positiver Faktorenwert bedeutet ein überdurchschnittliche Bewertung des Produkts. Z. B. Produkt 5 wurde bezüglich der Qualität schlecht aber bezüglich der Wirtschaftlichkeit sehr gut bewertet (ist halt nur ein Beispiel).

Seitenanfang

Hat der Inhalt Ihnen weitergeholfen und Sie möchten diese Seiten unterstützen?