Hallo.
Ich habe die Prüfung diesen Sommer gemacht.
Kurzzusammenfassung:
-) Statement vom Hauptsatz der Statistik mit Voraussetzungen
-) Wollte die Definition von Statistik, und insbesondere wissen, wieso bei Punkt d) davon das T keine Statistik ist. (Abhängig von µ und sigma)
-) Unverzerrt, konsistent? Def. und auch Bezug auf VT im HS der Statistik
-) Beispiel ML-Schätzer mit verzerrt für Stichprobenvarianz gegeben. Fragt, wie man das Berechnen würde.
-) Konfidenzintervalle ganz kurz, wie man Intervalllänge minimiert (Berücksichtigung, ob Verteilung symmetrisch oder unsymmetrisch ist (chisquared und t als Beispiele, wollte auch eine Zeichnung der Verteilung, was ich aber wegdiskutiert habe)
-) Hat übergeleitet zu Pivots, wollte die Pivotgrössenmethode wissen
-) Statistische Methode, auch zeichnen und erklären
-) Vergleich zu Vertrauensintervallen; HDI-Bereiche, Zeichnung dazu. Die Ausgangsfrage war, wie man die Intervalllänge minimiert.
-) Bayes-Statistik (a-priori, a posteriori, Jeffrey's A-priori (wieso invariant? es handelt sich um eine Parametrisierungsinvarianz)), Gibbs-Sampler (nur ganz oberflächlich, wusste ich nicht; wie man bei Bayes das Integrieren auch handhaben kann).
-) Vertrauensintervalle, HDI-Bereiche, Zeichnung dazu. Die Ausgangsfrage war, wie man die Intervalllänge minimiert.
-) Form des Waldintervalls (Quantile der Normalverteilung), auch mit N(0, Fischerinfo^{-1}(theta_0)
-) Wieso theta_0? (Gab eine etwas andere Antwort, aber habe die Beweisidee bei Maximum-Likelihood Satz 7.6 verwendet, wieso das asymtotisch keinen Unterschied macht, ob theta oder theta_0)
-) Maximum-Likelihood und Fischerinformation. Zusammenhang mit der Score-Funktion. Äquivarianz von ML-Schätzer. Regularitätsbedingungen haben ihn nicht interessiert.
Die Prüfung dauerte ca. 35-40 Minuten. Prof. Gurker war sehr freundlich, man kann auch Nicht-Wissen (Gibbs-Sampler) zugeben und er lacht mit einem.
Sehr sympathischer Prüfer und ich hatte das Gefühl, dass ich etwas bei der Prüfung gelernt habe.
Lg M