Treiberanalyse

Hinweis: Dieses Feature ist nur für die Professional Analytics Lizenz verfügbar.

Was ist eine Treiberanalyse?

Die Treiberanalyse ist eine Methode, um die Beweggründe für die Entscheidungen der Befragten zu verstehen. Sie wird in der Regel eingesetzt, um Erkenntnisse darüber zu gewinnen, welche Faktoren in Bezug auf die ausgewählte Kennzahl (z.B.: NPS, Kundenzufriedenheit, Kaufabsicht, usw.) am wichtigsten sind.

Beispiel: Unternehmen X misst kontinuierlich seinen NPS-Wert an verschiedenen Kontaktpunkten mit seinen Kunden. Mithilfe der Treiberanalyse kann das Unternehmen analysieren und verstehen, welche der zugrundeliegenden Aspekte seines Geschäfts den grössten Einfluss auf die Veränderungen des NPS haben.

Die Treiber sind die Faktoren, die die angegebene Kennzahl beeinflussen. Im obigen NPS-Beispiel kann man die Befragten zusätzlich bitten, verschiedene Aspekte des Unternehmens zu bewerten, wie z.B.:

  1. Preisgestaltung
  2. Produktqualität
  3. Produktpalette
  4. Kundenbetreuung
  5. Personalisierung

Mithilfe der Treiberanalyse kann man ermitteln, welche dieser Faktoren den grössten Einfluss auf den NPS des Unternehmens haben.

Die Identifizierung der wichtigsten Faktoren ermöglicht es Unternehmen, ihre Bemühungen und Ressourcen auf die Faktoren zu konzentrieren, die den grössten Einfluss auf die Erreichung ihrer Ziele haben.

Wie sind die Ergebnisse zu lesen?

Für die Interpretation der Ergebnisse der Treiberanalyse müssen zunächst die relevanten Variablen identifiziert werden:

  1. Ergebnismetrik (abhängige Variable): Was ist das Ergebnis, das wir optimieren wollen (z.B. NPS)?
  2. Prädiktoren (unabhängige Variablen). Welche Faktoren analysieren wir im Hinblick auf diese Ergebnismetrik.

Alle ausgewählten Prädiktoren werden anhand der folgenden 2 Dimensionen bewertet:

  1. Wichtigkeit (Y-Achse): Wie gross ist die relative Auswirkung auf die Ergebnisvariable (z.B. NPS)?
  2. Performanz (X-Achse): Wie gut ist die Bewertung durch die Befragten für diese Variable (normalisierter Mittelwert)?

Je weiter rechts ein Faktor sich im Chart befindet, desto zufriedener sind die Befragten laut Umfrageergebnissen mit diesem Aspekt.

Je weiter oben ein Faktor sich im Chart befindet, desto stärker ist der Einfluss dieses Aspekts auf die Ergebniskennzahl (NPS).

Im Chart sind 4 Quadranten zu erkennen, die mit Referenzlinien auf der Grundlage der Mittelwerte für Wichtigkeit und Performanz erstellt wurden:

  1. Key weaknesses: In der Regel der wichtigste Quadrant, auf den man sich konzentrieren sollte. Der obere linke Quadrant enthält Faktoren, die wichtig sind, aber schlecht bewertet werden. Im obigen Beispiel finden Sie die Personalisierung (individual approach) in diesem Quadranten, was bedeutet, dass dieser Aspekt einen grossen Einfluss auf den NPS-Wert hat, aber von den Befragten derzeit schlecht bewertet wird. Auf der Grundlage dieser Analyse könnte es eine gute Idee sein, der Verbesserung der Personalisierung der Dienstleistungen geschäftliche Priorität einzuräumen.
  2. Key strengths: Der obere rechte Quadrant enthält Aspekte, die wichtig sind und hoch bewertet werden. Das deutet darauf hin, dass diese Faktoren bereits gut funktionieren und einen positiven Einfluss auf die Ergebniskennzahl (NPS) haben. Im obigen Beispiel leistet die Preisgestaltung einen positiven Beitrag zum NPS des Unternehmens.
  3. Unimportant weaknesses: Der untere linke Quadrant enthält Aspekte, die nicht wichtig sind und schlecht bewertet werden. Obwohl die Befragten diese Faktoren schlecht bewerten, sind sie kein wichtiger Faktor bei der Bestimmung des NPS des Unternehmens. Im obigen Beispiel wäre es nicht empfehlenswert, mehr in die Produktpalette oder die Kundenbetreuung zu investieren.
  4. Unimportant strengths: Der untere rechte Quadrant enthält Aspekte, die nicht wichtig sind, aber hoch bewertet werden. Obwohl diese Faktoren eine gute Bewertung erhielten, haben sie keinen Einfluss auf die Ergebniskennzahl (NPS). Im folgenden Beispiel ist es für das Unternehmen nicht ratsam, mehr in die Produktqualität zu investieren.

Berücksichtigen Sie immer die Modellgenauigkeit, bevor Sie die Analyseergebnisse verwenden. Im Allgemeinen gilt: Je höher die Modellgenauigkeit, desto besser. Es ist nicht ratsam, Geschäftsentscheidungen auf der Grundlage der Ergebnisse zu treffen, wenn die Modellgenauigkeit unter 50 % liegt. Lesen Sie unten mehr zur Modellgenauigkeit.

Wie verwendet man die Treiberanalyse in Survalyzer?

Die Mindestanzahl der Interviews, die für die Berechnung erforderlich ist, beträgt 50. Ist die Anzahl der Interviews niedriger, wird die Treiberanalyse-Berechnung nicht gestartet.

1. Treiberanalyse anlegen

2. Ergebnismetrik festlegen

3. Prädiktoren auswählen

4. Methode (Berechnungsalgorithmus) bestimmen

5. Daten filtern

6. Ergebnisse prüfen

7. Chart und Tabelle zum Bericht hinzufügen

Treiberanalyse: Details

Performanz-Berechnung

Die Performanz (X-Achse) ist der normalisierte Mittelwert der entsprechenden Variable. Einfach ausgedrückt, handelt es sich um einen, in einen Prozentwert umgewandelten Mittelwert zwischen 0% (=minimaler Skalenwert) und 100% (=maximaler Skalenwert). Diese Normalisierung ermöglicht es, Variablen mit unterschiedlichen Skalengrössen zu vergleichen.

Performanz = (Mittelwert – Skalenminimum) / (Skalenmaximum – Skalenminimum).

Beispiele:

Die Befragten bewerten die Preisgestaltung Ihres Unternehmens auf einer Skala von 0 bis 10, wobei der Durchschnitt bei 7,8 liegt: Performanz = 78%.

Die Produktqualität wird auf einer Skala von 1 bis 5 eingestuft, wobei die durchschnittliche Bewertung bei 3,8 liegt: Performanz = 70%.

Wichtigkeit-Berechnung

Die Berechnung der relativen Wichtigkeit (Y-Achse) erfolgt mithilfe des ml.net Regressionsmodells für maschinelles Lernen. Sie ist das Ergebnis eines 2-stufigen Prozesses:

  1. Das Modell des maschinellen Lernens wird mit einem Regressionsalgorithmus erstellt, um den Wert der Ergebnismetrik aus einer Reihe von verwandten Merkmalen (Prädiktorvariablen) vorherzusagen. Regressionsalgorithmen modellieren die Abhängigkeit der Ergebnismetrik von den zugehörigen Merkmalen, um zu bestimmen, wie sich das Ergebnis ändert, wenn die Werte der Merkmale variiert werden.
  2. Die Permutation Feature Importance (PFI) Technik wird verwendet, um die Wichtigkeit einzelner Merkmale (Variablen) in einem Vorhersagemodell zu bewerten. Im Grossen und Ganzen besteht die Funktionsweise darin, dass die Daten für den gesamten Datensatz nach dem Zufallsprinzip jeweils um ein Merkmal reduziert werden und dann berechnet wird, wie stark das Gütekriterium des Modells (z.B. R-Quadrat) abnimmt. Je grösser die Veränderung ist, desto wichtiger ist das Merkmal.

Dieser 2-stufige Prozess wird verwendet, um Verzerrungen aufgrund von Multikollinearität zu vermeiden, die bei einer reinen Regressionsanalyse auftreten können.

Bitte beachten Sie, dass sich der Wert für die relative Wichtigkeit auf das jeweilige Modell bezieht und bei jeder Änderung des Modells (z.B. Hinzufügen/Entfernen von Prädiktoren, Änderung des ausgewählten Algorithmus usw.) differieren kann.

Weiterführende Informationen (nur auf englisch verfügbar):

Verfügbare Methoden (Berechnungsalgorithmen)

Das Fast-Tree-Verfahren sollte für gängige Treiberanalyse-Szenarien gute Ergebnisse liefern. Je nach Beschaffenheit Ihrer Daten können Sie bessere Ergebnisse (eine höhere Modellgenauigkeit) erzielen, wenn Sie einen anderen Berechnungsalgorithmus auswählen.

Methode     Beschreibung
Fast Tree
(Standard)
Ein auf Entscheidungsbäumen basierender Algorithmus, der sowohl für Regressions- als auch für Klassifizierungsprobleme verwendet wird. Er ist bekannt für seine Schnelligkeit und Genauigkeit und ist besonders nützlich bei der Arbeit mit grossen Datensätzen. Er ist eine gute Wahl, wenn Sie ein Modell schnell trainieren müssen und nicht viel Zeit für die Entwicklung von Merkmalen haben.
Fast ForestEin auf Random Forest basierender Algorithmus, der für Regressionsprobleme verwendet wird. Er ähnelt Fast Tree, aber anstatt einen einzelnen Entscheidungsbaum zu erstellen, wird eine Ansammlung von Bäumen erstellt und deren Vorhersagen gemittelt. Dadurch wird die Überanpassung reduziert und die Genauigkeit des Modells verbessert. Es ist eine gute Wahl, wenn Sie einen grossen Datensatz haben und eine Überanpassung vermeiden möchten.
OLS
(Ordinary Least Squares)
Ein linearer Regressionsalgorithmus, der zur Modellierung der Beziehung zwischen einer abhängigen Variable und einer oder mehreren unabhängigen Variablen verwendet wird. Es handelt sich um einen einfachen und weit verbreiteten Algorithmus, der leicht zu interpretieren ist. Er ist eine gute Wahl, wenn Sie einen kleinen Datensatz haben und eine lineare Beziehung zwischen Variablen modellieren möchten.
SDCA
(Stochastic Dual Coordinate Ascent)
Ein linearer Regressionsalgorithmus, der zur Lösung umfangreicher Optimierungsprobleme verwendet wird. Er ist besonders nützlich bei der Arbeit mit spärlichen Datensätzen, die eine grosse Anzahl von Merkmalen verarbeiten. Er ist eine gute Wahl, wenn Sie einen Datensatz mit vielen Merkmalen haben und bei geringer Datendichte optimieren möchten..
L-BFGS PoissonEin linearer Regressionsalgorithmus, der zur Modellierung von Zähldaten verwendet wird. Er basiert auf der Poisson-Verteilung, die üblicherweise zur Modellierung von Zähldaten verwendet wird. Er ist eine gute Wahl, wenn Sie Zähldaten haben und die Beziehung zwischen den Zähldaten und einer oder mehreren unabhängigen Variablen modellieren möchten.
Online Gradient DescentEin linearer Regressionsalgorithmus, der zur Modellierung der Beziehung zwischen einer abhängigen Variablen und einer oder mehreren unabhängigen Variablen verwendet wird. Er ist besonders nützlich bei der Arbeit mit grossen Datensätzen, die nicht in den Speicher passen, da er die Modellparameter inkrementell aktualisieren kann. Er ist eine gute Wahl, wenn Sie einen grossen Datensatz haben und ein Modell online trainieren möchten.

Weiterführende Informationen (nur auf englisch verfügbar): How to choose an ML.NET algorithm – ML.NET

Kennzahlen zur Modellbewertung

Kennzahl          Beschreibung
ModellgenauigkeitR-Quadrat, umgerechnet in einen Prozentwert.
R2
(R-Quadrat)
Stellt die Vorhersagekraft des Modells als Wert zwischen minus unendlich und 1 dar. Allgemein gilt: Je näher an 1, desto besser die Qualität. Sie sollten Modelle mit einem R-Quadrat von über 0,5 in Betracht ziehen. Ein negativer R-Quadrat-Wert bedeutet, dass das Modell schlechter ist als zufällige Vorhersagen; es sollte ganz ausser Acht gelassen werden und kann auch auf ein Problem mit den Eingabedaten hinweisen.
Manchmal können jedoch auch niedrige R-Quadrat-Werte (wie 0,5) für bestimmte Forschungsfälle völlig normal sein, und sehr hohe R-Quadrat-Werte (wie 0,99) sind nicht immer gut. Siehe weiterführender Link unten.
MAE
(Mittlerer absoluter Fehler)
Misst, wie nahe die Vorhersagen an den tatsächlichen Ergebnissen liegen. Er ist der Durchschnitt aller Modellfehler, wobei diese die absoluten Abstände zwischen den vorhergesagten Ergebniswerten und den tatsächlichen Ergebniswerten sind. Je näher an 0,00 gelegen, desto besser die Qualität.
MSE
(Mittlerer quadratischer Fehler)
Gibt an, wie nahe die Regressionslinie (Vorhersage) an den tatsächlichen Ergebnissen liegt, indem die Abstände dazwischen quadriert und am Ende gemittelt werden. Die Quadrierung verleiht grösseren Unterschieden mehr Gewicht. Der Fehler ist immer ein positiver Wert und je näher an 0,00 gelegen, desto besser.
RMSE
(Wurzel des mittleren quadratischen Fehlers)
Der RMSE ist die Quadratwurzel des MSE. Er vergleicht dieselben Abstände zwischen Vorhersage und tatsächlichem Ergebnis und ist ähnlich wie der MAE, wobei grössere Unterschiede stärker gewichtet werden. Der Wert ist immer positiv und je näher an 0,00 gelegen, desto besser.

Weiterführende Informationen (nur auf englisch verfügbar): Evaluation metrics for Regression and Recommendation

Updated on February 2, 2024
Was this article helpful?

Related Articles

Need Support?
Please login to your Survalyzer account and use the "Create Support Request" form.
Login to Survalyzer