You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
Das Standardverfahren um eine \Gls{glos:kriteriumsvariable} durch \Glspl{glos:praediktorvariable} vorherzusagen stellt die Regressionsanalyse dar.
2
+
Das Standardverfahren, um eine \Gls{glos:kriteriumsvariable} durch \Glspl{glos:praediktorvariable} vorherzusagen, stellt die Regressionsanalyse dar.
3
3
Begründet wurde dieses Verfahren durch Carl Friedrich Gauss in seiner Schrift, in der er, mit Hilfe der Methode der kleinsten Quadrate, die Bewegung der Himmelskörper um die Sonne im Kegelschnitt beschrieb \cite{gauss1809theoria}.
4
4
5
-
Im Unterschied zur einfachen linearen Regression, werden in einem multiplen Regressionsmodell mehrere Prädiktoren $p$ mit einbezogen.
6
-
Es resultiert eine Regressionsgleichung welche zur Vorhersage einer Kriteriumsvariable aufgrund mehrerer Prädikatorvariablen genutzt wird \cite[S. 448]{bortz2011}.
5
+
Im Unterschied zur einfachen linearen Regression werden in einem multiplen Regressionsmodell mehrere Prädiktoren $p$ mit einbezogen.
6
+
Es resultiert eine Regressionsgleichung, welche zur Vorhersage einer Kriteriumsvariable $y_i$aufgrund mehrerer Prädiktorvariablen genutzt wird \cite[S. 448]{bortz2011}.
Beim klassisch hypothesengeleiteten Vorgehen wird eine Hypothese definiert, welche empirisch getestet wird.
12
12
Der empirische Test wiederum ist ein Modell, in unserem Fall eine Regressionsgleichung, welche aufgrund theoretischer Überlegungen erstellt wurde.
13
13
Wenn es jedoch keine klaren theoretischen Gründe gibt potentielle Prädiktorvariablen in das Modell aufzunehmen, werden mehrere Modelle geschätzt und jenes mit der besten und stabilsten Vorhersagekraft verwendet.
14
14
Bei komplexen Modellen mit vielen Prädiktoren werden Modelle mittels automatischer Verfahren geschätzt und selektiert.
15
-
Ein zentrales Problem solcher Verfahren ist, dass sie dazu neigen zu komplexe Modelle zu schätzen.
16
-
Komplexe Modelle können sehr gute Vorhersagen innerhalb des \Gls{glos:trainingsdatensatz}es liefern, doch scheitern gern beim Versuch generelle Vorhersagen zu treffen.
15
+
Ein zentrales Problem solcher Verfahren ist, dass sie dazu neigen, zu komplexe Modelle zu schätzen.
16
+
Komplexe Modelle können sehr gute Vorhersagen innerhalb des \Gls{glos:trainingsdatensatz}es liefern, doch scheitern gern beim Versuch, generelle Vorhersagen zu treffen.
17
17
18
-
Im folgenden wird diskutiert wann und weshalb automatische Verfahren zur Modellwahl eingesetzt werden.
18
+
Im folgenden wird diskutiert, wann und weshalb automatische Verfahren zur Modellwahl eingesetzt werden.
19
19
Anschliessend wird das exhaustive und schrittweise Verfahren vorgestellt und kritisch diskutiert.
20
20
Die Frage nach der Generalisierbarkeit automatisch geschätzter Modelle wird im Anschluss besprochen und die \Gls{glos:kreuzvalidierung} als Lösungsansatz genannt.
Copy file name to clipboardExpand all lines: literature.bib
+9Lines changed: 9 additions & 0 deletions
Original file line number
Diff line number
Diff line change
@@ -5,6 +5,15 @@ @techreport{box1979robustness
5
5
year={1979},
6
6
institution={DTIC Document}
7
7
}
8
+
@article{shieh2006suppression,
9
+
title={Suppression situations in multiple linear regression},
10
+
author={Shieh, Gwowen},
11
+
journal={Educational and psychological measurement},
12
+
volume={66},
13
+
pages={435--447},
14
+
year={2006},
15
+
publisher={Sage Publications}
16
+
}
8
17
@article{023755520080101,
9
18
Abstract = {Aim of the study: The aim of the present study was to identify factors at the beginning and at the end of an inpatient psychosomatic rehabilitation predicting the successful transfer of Progressive Relaxation (PR) according to Jacobson three months after the stay. Methods: Eighty patients in a psychosomatic rehabilitation center were studied in the beginning (T1), at discharge (T2) and three months after discharge (T3). Every patient participated in courses on PR. To evaluate the course, parts of the Diagnostisches und evaluatives Instrumentarium für Entspannungstraining und Entspannungstherapie were used. Transfer was defined as successful if patients practised PR at least once a week three months after their stay. Potential predictors were: diagnosis, age, symptoms, previous experiences, and motives at T1 and frequency of practising, adequateness of group size and change of symptoms at T2. Stepwise logistic regression analysis was used to identify predictors. Results: Three months a},
10
19
Author = {Bernardy, K. and Krampen, G. and Köllner, V.},
\rightheader{Automatisierte Verfahren zur Prädiktorauswahl}
31
30
% Hurenkinder und Schusterjungen verhindern
32
31
\clubpenalty10000
33
32
\widowpenalty10000
34
33
\displaywidowpenalty=10000
35
34
36
35
\begin{document}
36
+
\begin{titlepage}
37
37
38
38
\title{Automatische Verfahren zur Prädiktorauswahl in Regressionsmodellen}
39
39
\shorttitle{Prädiktorauswahl in Regressionsmodellen}
40
40
\author{Literaturarbeit vorgelegt von \\ Markus Graf (markus.graf@uzh.ch)}
41
41
\date{\today}
42
-
\affiliation{am Psychologisches Institut der Universität Zürich\\ Betreut durch Dr. Christina Werner\\\today}
43
-
\abstract{Ziel der multiplen Regression ist es Kriteriumsvariablen durch mehrere Prädiktorvariablen möglichst gut vorherzusagen. In diesem Kontext kommen Automatische Modellwahlverfahren zur Anwendung, wenn für die Schätzung des Modells viele potentielle Prädikatoren zur Auswahl stehen, insbesondere wenn theoretische Grundlagen fehlen. Das exhaustive Verfahren in Kombination mit der Kreuzvalidierung ist momentan die einzige Technik, die das beste und stabilste Modell findet. Schrittweise Verfahren kommen zur Anwendung bei kleinem Stichprobenumfang. Während früher aus Mangel an Rechenleistung standardmässig schrittweise Verfahren angewandt wurden soll heutzutage dem rechenintensiven exhaustiven Verfahren bevorzugt werden.
44
-
}
42
+
43
+
\affiliation{am Psychologischen Institut der Universität Zürich\\ Betreut durch Dr. Christina Werner\\\today}
45
44
\maketitle
45
+
\end{titlepage}
46
+
\thispagestyle{empty}
47
+
Ziel der multiplen Regression ist es Kriteriumsvariablen durch mehrere Prädiktor- variablen möglichst gut vorherzusagen. In diesem Kontext kommen Automatische Modellwahlverfahren zur Anwendung, wenn für die Schätzung des Modells viele potentielle Prädiktoren zur Auswahl stehen, insbesondere wenn theoretische Grundlagen fehlen. Das exhaustive Verfahren in Kombination mit der Kreuzvalidierung ist momentan die einzige Technik, die das beste und stabilste Modell findet. Schrittweise Verfahren kommen zur Anwendung bei kleinem Stichprobenumfang. Während früher aus Mangel an Rechenleistung standardmässig schrittweise Verfahren angewandt wurden, soll heutzutage das rechenintensive exhaustive Verfahren bevorzugt werden.
Dieses Werk bzw. Inhalt steht unter einer Creative Commons Namensnennung - Weitergabe unter gleichen Bedingungen 3.0 Unported Lizenz.
49
52
\end{center}
50
53
\setlength{\parindent}{0pt}
51
54
\newpage
55
+
\thispagestyle{empty}
56
+
\begin{spacing}{0.01}
52
57
\tableofcontents
58
+
\end{spacing}
53
59
\newpage
54
60
55
61
\input{glossar}
56
62
\input{introduction}
57
63
\section{Recherche}
58
-
Hauptquelle der Literatur-Recherche waren Artikel, welche via Google Scholar gefunden wurden. Grundlagen zu den Verfahren wurden mittels \citeA{bortz2011} und \citeA{jacob2003applied} erarbeitet. Der Fokus bei der Recherche wurde auf Artikel im Bereich der Psychologie gerichtet, es fanden sich jedoch auch viele Artikel in anderen Fachbereichen, welche mit den selben Problemen konfrontiert sind. Kurz vorgestellt wurden die Verfahren von Carolin Strobl in der Vorlesung ``160 Psychologische Methoden: Datenerhebung, Analyse und Darstellung'' im Rahmen des Psychologie-Aufbaustudiums der Universität Zürich. Interessante Hinweise und praktische Beispiele fanden sich ausserdem in den Manuals von R.
64
+
Hauptquelle der Literatur-Recherche waren Artikel, welche via Google Scholar gefunden wurden. Als Stichworte zu nennen sind \textit{stepwise model selection, stepwise regression criteria, model selection paradigm, cross validation, overfitting}. Grundlagen zu den Verfahren wurden mittels \citeA{bortz2011} und \citeA{jacob2003applied} erarbeitet. Der Fokus bei der Recherche wurde auf Artikel im Bereich der Psychologie gerichtet, es fanden sich jedoch auch viele Artikel in anderen Fachbereichen, welche mit den selben Problemen konfrontiert sind. Kurz vorgestellt wurden die Verfahren von Carolin Strobl in der Vorlesung ``160 Psychologische Methoden: Datenerhebung, Analyse und Darstellung'' im Rahmen des Psychologie-Aufbaustudiums der Universität Zürich. Interessante Hinweise und praktische Beispiele fanden sich ausserdem in den Manuals von R\cite{R:core}.
Copy file name to clipboardExpand all lines: model_selection.tex
+19-20Lines changed: 19 additions & 20 deletions
Original file line number
Diff line number
Diff line change
@@ -1,39 +1,38 @@
1
1
\section{Automatische Verfahren zur Prädiktorauswahl}
2
-
Zu beginn der psychologischen Forschung mussten Modelle von Hand berechnet werden. Zwangsläufig wurden wenige Prädikatoren erhoben und einfache Modelle gerechnet.
2
+
Zu Beginn der psychologischen Forschung mussten Modelle von Hand berechnet werden. Zwangsläufig wurden wenige Prädiktoren erhoben und einfache Modelle gerechnet.
3
3
Friedman analysierte beispielsweise 1944 die Langlebigkeit von Turbinenschaufeln in Abhängigkeit von Stress, Temperatur und einigen Legierungsparametern.
4
4
Zwar wurde die Berechnung nicht mehr von Hand durchgeführt, doch benötigte eine Regressionsschätzung inklusive Berechnung der Teststatistiken rund 40 Stunden \cite[p.2]{armstrong2011illusions}. Jeder durchschnittliche Computer erledigt dies heutzutage in Sekundenbruchteilen.
5
-
Mit dem technische Fortschritt einhergehend wurden Verfahren entwickelt, welche alle möglichen Kombinationen von Prädiktoren, inklusive ihrer Interaktion, berücksichtigen und gegeneinander testen.
5
+
Mit dem technischen Fortschritt einhergehend wurden Verfahren entwickelt, welche alle möglichen Kombinationen von Prädiktoren, inklusive ihrer Interaktionen, berücksichtigen und gegeneinander testen.
6
6
7
-
Es gilt also das ``beste'' Modell zu schätzen.
8
-
Gemeint ist mit dem ``besten'' Modell das, dass innerhalb des Trainingsdatensatzes die beste Vorhersage liefert.
7
+
Es gilt also, das ``beste'' Modell zu schätzen.
8
+
Gemeint ist mit dem ``besten'' Modell das, das innerhalb des Trainingsdatensatzes die beste Vorhersage liefert.
9
9
Anhand des Trainingsdatensatzes wurde das Modell jedoch auch geschätzt. Entsprechend kann es Modelle geben, die in der Gesamtpopulation bessere Vorhersagen liefern.
10
10
``All models are wrong, but some are useful''\cite[p.202]{box1979robustness}.
11
-
Box will damit hervorheben, dass obschon in der Literatur oft vom ``besten'' oder ``wahren'' Modell gesprochen wird, dies nur ein Approximation der Wirklichkeit darstellt \cite[p.172]{weakliem2004introduction}.
11
+
Box will damit hervorheben, dass obschon in der Literatur oft vom ``besten'' oder ``wahren'' Modell gesprochen wird, dies nur eine Approximation der Wirklichkeit darstellt \cite[p.172]{weakliem2004introduction}.
12
12
13
13
\subsection{Exhaustive Schätzung}
14
-
Eine naive Herangehensweise ist, alle möglichen Modelle, welche mit $p$ Prädiktoren möglich sind, durch zurechnen.
14
+
Eine naive Herangehensweise ist, alle möglichen Modelle, welche mit $p$ Prädiktoren möglich sind, durchzurechnen.
15
15
Zur Beurteilung der Modellgüte kann die mittlere quadratische Abweichung herangezogen werden.
16
16
Das Modell mit der kleinsten Fehlerquadratsumme $SSE_p$ wird als das optimale Modell bezeichnet \cite[p. 6]{thompson1978selection}.
17
17
18
18
\begin{equation}
19
-
SSE_p = \sum(Y_{ip}-\hatY_{p})^2
19
+
SSE_p = \sum_{i=1}^n(y_{ip}-\haty_{p})^2
20
20
\tag{Fehlerquadratsumme}
21
21
\end{equation}
22
22
23
23
24
24
Da alle möglichen Kombinationen durchgerechnet werden, wird das Modell gefunden, das den Trainingsdatensatz am besten vorhersagt.
25
-
\citeA[p.6]{thompson1978selection} sieht einzig den Nachteil darin, dass der \Gls{glos:rechenaufwand} exponentiell mit der Anzahl zu berücksichtigender Prädikatoren steigt.
26
-
Es müssen immer $2^p-1$ Modelle berechnet werden, bei 5 Prädikatoren sind dies 31 Modelle, bei 10 bereits 1023 usw.
27
-
Während früher eingeschränkte Rechenkapazität oft ein ökonomischer Faktor war - es musste Rechenzeit in einem Rechenzentrum reserviert werden - spielt die Rechengeschwindigkeit auf modernen Systemen eine untergeordnete Rolle.
28
-
Insbesondere in der psychologischen Forschung muss oft nur eine Handvoll Prädikatoren in die Schätzung einbezogen werden.
25
+
\citeA[p.6]{thompson1978selection} sieht einzig den Nachteil darin, dass der \Gls{glos:rechenaufwand} exponentiell mit der Anzahl zu berücksichtigender Prädiktoren steigt.
26
+
Es müssen immer $2^p-1$ Modelle berechnet werden, bei 5 Prädiktoren sind dies 31 Modelle, bei 10 bereits 1023 usw.
27
+
Während früher eingeschränkte Rechenkapazität oft ein ökonomischer Faktor war -- es musste Rechenzeit in einem Rechenzentrum reserviert werden -- spielt die Rechengeschwindigkeit auf modernen Systemen eine untergeordnete Rolle.
28
+
%In der psychologischen Forschung muss oft nur eine Handvoll Prädiktoren in die Schätzung einbezogen werden.
29
29
30
30
\subsection{Schrittweise Verfahren}
31
-
Das optimale Modell beinhaltet jeden Prädikator, der die Voraussage auch nur minimal verbessert.
31
+
Das optimale Modell beinhaltet jeden Prädiktor, der die Voraussage auch nur minimal verbessert.
32
32
Es stellt sich die Frage ob diese minimale Verbesserung auch nützlich ist oder einfach durch Zufall entstanden ist.
33
-
Schrittweise Verfahren arbeiten wesentlich liberaler. Prädikatoren werden hinzugefügt oder eliminiert, je nach deren Relevanz für die Modellgüte.
33
+
Schrittweise Verfahren arbeiten wesentlich liberaler. Prädiktoren werden hinzugefügt oder eliminiert, je nach deren Relevanz für die Modellgüte.
34
34
Es werden Kriterien festgelegt, nach welchen ein Modell als angemessen zu betrachten ist.
35
-
Dies hat gegenüber dem \gls{glos:exhaustive Verfahren} den Vorteil, dass nicht alle Modelle berechnet werden müssen und entsprechend schneller Lösungen gefunden werden.
36
-
%Im Schnitt müssen xxxx Modelle berechnet werden, um eine adäquate Lösung zu finden \cite{tobecite}.
35
+
Dies hat gegenüber dem \gls{glos:exhaustive Verfahren} den Vorteil, dass nicht alle Modelle berechnet werden müssen und entsprechend schneller Lösungen gefunden werden.
37
36
38
37
Innerhalb der schrittweisen Verfahren unterscheidet man zwischen \textit{Forward Selection} und \textit{Backward Elimination}.
\caption{Forward Selection. Das Flussdiagramm beschreibt den schrittweisen Aufbau eines neuen Modells aus dem leeren Modell durch Hinzufügen potentieller Prädiktoren.}
43
42
\label{fig:forward_stepwise}
44
43
\end{figure}
45
-
Ausgehend vom leeren Modell werden in der ersten Variante schrittweise weitere Variable der Nützlichkeit nach in das Modell integriert. Dies dauert so lange an, bis kein Prädiktor mehr gefunden wird, der ein gewisses Kriterium erfüllt.
44
+
Ausgehend vom leeren Modell werden in der ersten Variante schrittweise weitere Variablen der Nützlichkeit nach in das Modell integriert. Dies dauert so lange an, bis kein Prädiktor mehr gefunden wird, der ein gewisses Kriterium erfüllt.
\caption{Backward Elimination. Das Flussdiagramm beschreibt die schrittweise Elimination von unnützen Prädiktoren aus dem vollen Modell.}
50
49
\label{fig:backward_stepwise}
51
50
\end{figure}
52
-
In der zweiten Variante werden alle Prädikatoren in das Modell integriert und sukzessive nacheinander entfernt. Wiederum endet das Verfahren, sobald kein Prädikator mehr weggelassen werden kann, ohne dass ein gewisses Kriterium unterschritten wird.
51
+
In der zweiten Variante werden alle Prädiktoren in das Modell integriert und sukzessive nacheinander entfernt. Wiederum endet das Verfahren, sobald kein Prädiktor mehr weggelassen werden kann, ohne dass ein gewisses Kriterium unterschritten wird.
53
52
54
53
Die Aufnahme einer neuen Variable kann dazu führen, dass eine bereits im Modell vorhandene Variable obsolet wird.
55
54
Um diesem Umstand Rechnung zu tragen, werden oft Forward Selection und Backward Elimination kombiniert \cite[p. 461]{bortz2011}.
56
55
57
56
In seltenen Fällen kann es vorkommen, dass zwei Variablen für sich in die Regressionsgleichung aufgenommen, die Vorhersage kaum verbessern und das Kriterium nicht erfüllen. Zusammen leisten sie jedoch einen substantiellen Beitrag \cite[p.261]{jacob2003applied}.
58
-
\Gls{glos:schrittweise Verfahren} sind entsprechend nicht in der Lage solche Effekte mit zu berücksichtigen.
57
+
\Gls{glos:schrittweise Verfahren} mittels Forward Selection sind entsprechend nicht in der Lage solche Effekte mit zu berücksichtigen, wogegen Backward Elimination robuster gegen solche Spressionseffekte ist \cite{shieh2006suppression}.
59
58
60
59
Zentrales Element der schrittweisen Regression ist das Kriterium zur Beurteilung der Modellanpassung, welches besagt, weshalb und wann ein Modell als akzeptabel zu betrachten ist. Als Folge dessen wird damit auch die Anzahl relevanter Prädiktoren bestimmt. Im Laufe der Zeit wurden diverse Kriterien definiert, welche alle für sich ihre Berechtigung haben.
61
60
Einteilen lassen sie sich in Kriterien, welche (a) sich auf die Beurteilung innerhalb des Trainingsdatensatzes beschränken oder (b) die Generalisierbarkeit ausserhalb des Trainingsdatensatzes zu berücksichtigen versuchen. Letztere werden im Abschnitt des Overfittings beschrieben.
In schrittweisen Verfahren wird nicht einzig aufgrund von $R^2$ selektiert sondern es wird zusätzlich getestet, ob Verbesserungen nicht durch Zufall entstanden sind.
72
71
73
-
Beim Signifikanztest als Kriterium wird das Verfahren beendet, wenn kein Prädikator mehr hinzugefügt werden kann, der das Vorhersagepotential signifikant erhöht \cite[p.48]{bendel1977comparison}.
74
-
Das vergleichen zweier Regressionsgleichungen mittels Signifikanztest bedingt, dass diese geschachtelt sein müssen, das kleinere Modell muss im grösseren enthalten sein \cite[p. 508]{jacob2003applied}.
72
+
Beim Signifikanztest als Kriterium wird das Verfahren beendet, wenn kein Prädiktor mehr hinzugefügt werden kann, der das Vorhersagepotential signifikant erhöht \cite[p.48]{bendel1977comparison}.
73
+
Das Vergleichen zweier Regressionsgleichungen mittels Signifikanztest bedingt, dass diese geschachtelt sein müssen, das kleinere Modell muss im grösseren enthalten sein \cite[p. 508]{jacob2003applied}.
75
74
Das gewählte Signifikanzniveau ist eigentlich unbegründet gewählt \cite[p. 174]{weakliem2004introduction}. \citeA[p. 269]{derksen2011backward} diskutieren mehrere Empfehlungen für Signifikanzniveaus und weisen darauf hin, das sich über mehrere Tests der $\alpha$-Fehler kumuliert.
76
75
In Simulationen mit artifiziellen Daten zeigen \citeA{mundry2009stepwise} das Problem multipler Tests beispielhaft auf.
77
76
Daraus resultierend lehnen sie die Verwendung der schrittweisen Regression mittels Signifikanztest gar ab.
0 commit comments