fluchtversuch
|
Verfasst: Fr 12-06-2009 20:51:38
Alte Prüfungsfragen Gurker
| | | | Zitat: Varianzstabilisierende Wirkung was ist das, wie konstruiert man es (Taylor und Deltamethode)
LS/LLS Familien: Def, wafür gut? (Erzeugen von zufallszahlen, Quantile,/wahrscheinlichkeit nur für eine Verteilung rechnen) QQ-Plot: was is das warum geht das? (Ordinatenachse Stecken -> lineare abhängigkeit)
Kernschätzer: Was is das wie funktioniert es? Funktion von h? Was für kerne gibt es?
FRC-Schranke: Def? Spezialfall unverzerrte Schätzer? effizienz? was ist Fischerinformation(Wie berechnen)? Scorefunktion(zusammenhang mit Fischerinf.)? wofür braucht man sie noch(satz 7.5)?
Jeffreys A-priori: was ist das? für welches problem brauche ich es?
1) Er hat mich gefragt in welchen Kapiteln man die Inversionsmethoden angewendet hat und als ich da nur die aus dem 5. wusste, hat er eigentlich während der ganzen Prüfung darauf herumgehackt und wollte mich dann mit anderen Fragen daraufhinweisen. 2) Satz von 6. 4 und Beweis - er wollte nicht nur die Beweisidee, sondern ich musste ALLES aufschreiben 3) Likelyhoodschätzer und Eigenschaften 4) p-Wert - welche Verteilung hat er im Fall der H1 5) Pivot 6) KS-Test und D_N 7) eine Definition, die nicht unter dem Namen im Skriptum steht - das war etwas schwierig (weiß aber nicht mehr welche es war)
-) Hauptsatz der math. Statistik -) Methoden Konfidenzintervalle zu erhalten: Pivot, statistische Methode (war nicht außer Konkurrenz), Bootstrapping -) ein paar Fragen zu Bootstrapping, was man damit machen kann, etc -) (L)LS Familien, QQ-Plot -) MLE: Eigenschaften -) Jeffrey's Apriori
-) hauptsatz der math. statistik -) KI, alle 3 wichtigen methoden, also Pivot, Stat.-Methode (auch nicht außer Konkurrenz) und Bootstrapping -) was man mit Bootstrapping noch alles machen kann (P-Wert, KI, Varianz eines Schätzers, K-band für power-fkt.) -) p-wert: def., aussagen unter H0/H1 -) ML-Schätzer: eigenschaften (konsistent, asymp. effizient), und satz 7.5 (unter anderem) -) und zu guter letzt seine lieblingsfrage in sachen Bayes: Jeffrey´s apriori
-) Hauptsatz der mathematischen Statistik (+Anwendung(en)) -) KI: Konstruktionsmöglichkeiten ((approx.) Pivots, statistische Methode, Bootstrapping) -) ML-Schätzer: Definition, "Warum ist es sinnvoll die ML-Funktion zu max.?", Eigenschaften des ML-Schätzers (Konsistenz,...), Definition der Fisherinformation ("Was stellen Sie sich darunter vor?"), FRC-Ungleichung -) Bayes: Wann ist eine a-priori-Verteilung konjugiert?, Vorteile?
-) gemütliche Einstiegsfrage: Integraltransformation/Inversionsmethoden: was ist das, wo kam das vor? Da will er natürlich das aus Kapitel 5 hören, dann, dass die KS-Statistik unabhängig von der Verteilung ist (Satz 6.4: auch ich musste da, wie die Ines, den ganzen Beweis hinschreiben, mein Glück, dass das eh ein Einzeiler ist...) und als letzten Punkt noch dass man das benötigt um zu zeigen, wie die Verteilung des p-Werts unter der Ho aussieht.
-) Allgemein der p-Wert: Definition, Verteilung unter H0 und H1, warum ist er eine stochastische Größe?
-) Konfidenzintervalle: Pivot-Methode, statistische Methode und Bootstrap-Pivot-Methode (!!! Die ist ihm ganz wichtig !!!) genau, Bootstrapping allgemein nur ganz kurz erwähnt
-) Allgemein: Was ist eine Pivot-Größe? Beispiel?
-) LQ-Test, Wald-Test, Score-Test: Definition, welche Aussagen stecken dahinter, Vergleich zwischen den einzelnen Tests
-) zur Bayes-Statistik: Konjugierte Familie von Verteilungen mit Beispiel, Vorteile davon?
- Deltamethode allgem., Varianzstabil. Transf. - L(L)S-Familien, Verwendung, Beispiele (Logistische Verteilung!), QQ-Plot, - Pivot - KI: Möglichkeiten zur Bestimmung + Details dazu, natürlich wollte er die Stat. Methode zuerst hören, von der ich nichts hatte (ich glaub das ist sein Test, ob man brav in der VO war) - Bootstrapping: KI für den Median von einer Strichrpobe mit Umfang 5 bestimmen, Bootstrap-Pivot Methode wollte er da auch noch hören - KS-Test: Def. Dn + Beweis - ML-Schätzer: da wollte er einige Zusammenhänge wissen, Fisher-Information, verzerrter Schätzer, Invarianz - Jeffreys A-priori
1) Deltamethode: allgemein, Varianzstab. Transfo (wollte da außer Konkurrenz das UE-Bsp wissen, wo wir das vorher noch transformiert haben) 2) (L)LS-Familien mit Bsp und dann der QQ-Plot 3) KI: welche Arten? eine näher erklären 4) Bootstrapping: was kann man da noch so alles machen (auch die Pivot-Bootstrapp-Methode) 5) ML-Funktion: warum maximiern, Eigenschaften, FRC-Schranke 6)Jeffreys A-priori
- hauptsatz der mathematischen statistik - KIs die üblichen und über die dualität beim testen, pivot und bootstrapping allgemein erklären - pwert - integraltransformation - ML alles was es da so gibt und wie aus der äquivarianz folgt, dass nicht alle ML schätzer unverzerrt sein können, geht irgendwie mit der jensenschen ungleichung - Jeffreys
-) Hauptsatz der mathematischen Statistik -) LS/ LLS-Familien, QQ-Plot -) KIs: Pivot, statistische Methode, Bootstrapping und Pivot-Bootstrapping -) ML-Schätzer: Definition, Eigenschaften, Satz 7.5, FRC-Schranke, Sind alle ML-Schätzer unverzerrt? Gegenbeispiel; -) konjugierte Familien: Definition, Beispiele und Vorteile davon;
-) Hauptsatz der mathematischen Statistik -) Pivotgrößen: Definition, Anwendung -) KIs: alle Methoden, Dualität zu Tests -) KS-Tests: Warum sind die D_n unabhängig von F? -) ML-Schätzer: Definition, Eigenschaften, Satz 7.5, FRC-Schranke -) Jeffreys A-priori
*) Hauptsatz der mathematischen Statistik (2-6) *) Pivot: Def., KI mittels approx. Pivot, Pivotgrößenmethode (4-9) *) Bootstrapping: Vorgangsweise bei KI und p-Wert erklären (5-5, 5-6, 5-9) *) p-Wert: Def. + Eigenschaften , sowie Beweis von p-Wert-Verteilung unter H0 (Integralstransformation) (4-16) *) statistische Methode (4-11) *) Zusammenhang: KI und Tests - wie man von KI zu Test kommt und umgekehrte Richtung (4-14) *) Likelihood-Fkt: Def. und Eigenschaften (Äquivarianz, konstistent?, effizient?, asyptotische Verteilung (Satz 7.5)) (7-1, 7-2, 7-8 ) *) FRC-Ungleichung (7-3) *) Fisher-Information: Def. + Eigenschaften (7-4) *) Jeffreys' A-priori-Verteilung: Motivation + Definition (8-3)
1) Hauptsatz der mathematischen Statistik: Ausdrücke Pivot und Statistik erklären, Anwendungen --> 2) Konstruktion von KI: Pivotmethode, Invertierung eines Tests --> 3) Dualität von KI und Tests: wie rechnet man um?, 4) Statistische Methode: aufzeichnen und erklären, 5) Bootstrapping: Algorithmus zur Konstruktion von KI anhand eines Beispiels (n=10, KI für den Median --> als Statistik zB Ordnungsstatistik nehmen), was kann man noch mit Bootstrapping machen (Bestimmung der Varianz, Bestimmung des p-Wertes) 6) p-Wert: 2 Definitionen, Verteilung unter Ho (mit Beweis) und unter H1 7) Integraltransformation: Anwendungen (Verteilung des p-Wertes unter Ho, Inversionsmethode) 8 ) Eigenschaften von ML - Schätzern: Definition, Äquivarianz, Gegenbeispiel zu unverzerrt (ML-Schätzer für die Varianz), asymptotische Verteilung (anhand derer sieht man auch folgendes:), asymptotische Effizienz (Begriff erklären), asymptotisch optimal (Konsistenz), Fisher-Information aufschreiben 9) konjugierte Verteilungsfamilien: was ist das, Vorteil (man braucht nur die Parameter updaten), Beispiel (X poissonverteilt, a-priori-Dichte = gamma)
| | | | |
Viel Glück!
[quote] Varianzstabilisierende Wirkung was ist das, wie konstruiert man es (Taylor und Deltamethode)
LS/LLS Familien: Def, wafür gut? (Erzeugen von zufallszahlen, Quantile,/wahrscheinlichkeit nur für eine Verteilung rechnen) QQ-Plot: was is das warum geht das? (Ordinatenachse Stecken -> lineare abhängigkeit)
Kernschätzer: Was is das wie funktioniert es? Funktion von h? Was für kerne gibt es?
FRC-Schranke: Def? Spezialfall unverzerrte Schätzer? effizienz? was ist Fischerinformation(Wie berechnen)? Scorefunktion(zusammenhang mit Fischerinf.)? wofür braucht man sie noch(satz 7.5)?
Jeffreys A-priori: was ist das? für welches problem brauche ich es?
1) Er hat mich gefragt in welchen Kapiteln man die Inversionsmethoden angewendet hat und als ich da nur die aus dem 5. wusste, hat er eigentlich während der ganzen Prüfung darauf herumgehackt und wollte mich dann mit anderen Fragen daraufhinweisen. 2) Satz von 6. 4 und Beweis - er wollte nicht nur die Beweisidee, sondern ich musste ALLES aufschreiben 3) Likelyhoodschätzer und Eigenschaften 4) p-Wert - welche Verteilung hat er im Fall der H1 5) Pivot 6) KS-Test und D_N 7) eine Definition, die nicht unter dem Namen im Skriptum steht - das war etwas schwierig (weiß aber nicht mehr welche es war)
-) Hauptsatz der math. Statistik -) Methoden Konfidenzintervalle zu erhalten: Pivot, statistische Methode (war nicht außer Konkurrenz), Bootstrapping -) ein paar Fragen zu Bootstrapping, was man damit machen kann, etc -) (L)LS Familien, QQ-Plot -) MLE: Eigenschaften -) Jeffrey's Apriori
-) hauptsatz der math. statistik -) KI, alle 3 wichtigen methoden, also Pivot, Stat.-Methode (auch nicht außer Konkurrenz) und Bootstrapping -) was man mit Bootstrapping noch alles machen kann (P-Wert, KI, Varianz eines Schätzers, K-band für power-fkt.) -) p-wert: def., aussagen unter H0/H1 -) ML-Schätzer: eigenschaften (konsistent, asymp. effizient), und satz 7.5 (unter anderem) -) und zu guter letzt seine lieblingsfrage in sachen Bayes: Jeffrey´s apriori
-) Hauptsatz der mathematischen Statistik (+Anwendung(en)) -) KI: Konstruktionsmöglichkeiten ((approx.) Pivots, statistische Methode, Bootstrapping) -) ML-Schätzer: Definition, "Warum ist es sinnvoll die ML-Funktion zu max.?", Eigenschaften des ML-Schätzers (Konsistenz,...), Definition der Fisherinformation ("Was stellen Sie sich darunter vor?"), FRC-Ungleichung -) Bayes: Wann ist eine a-priori-Verteilung konjugiert?, Vorteile?
-) gemütliche Einstiegsfrage: Integraltransformation/Inversionsmethoden: was ist das, wo kam das vor? Da will er natürlich das aus Kapitel 5 hören, dann, dass die KS-Statistik unabhängig von der Verteilung ist (Satz 6.4: auch ich musste da, wie die Ines, den ganzen Beweis hinschreiben, mein Glück, dass das eh ein Einzeiler ist...) und als letzten Punkt noch dass man das benötigt um zu zeigen, wie die Verteilung des p-Werts unter der Ho aussieht.
-) Allgemein der p-Wert: Definition, Verteilung unter H0 und H1, warum ist er eine stochastische Größe?
-) Konfidenzintervalle: Pivot-Methode, statistische Methode und Bootstrap-Pivot-Methode (!!! Die ist ihm ganz wichtig !!!) genau, Bootstrapping allgemein nur ganz kurz erwähnt
-) Allgemein: Was ist eine Pivot-Größe? Beispiel?
-) LQ-Test, Wald-Test, Score-Test: Definition, welche Aussagen stecken dahinter, Vergleich zwischen den einzelnen Tests
-) zur Bayes-Statistik: Konjugierte Familie von Verteilungen mit Beispiel, Vorteile davon?
- Deltamethode allgem., Varianzstabil. Transf. - L(L)S-Familien, Verwendung, Beispiele (Logistische Verteilung!), QQ-Plot, - Pivot - KI: Möglichkeiten zur Bestimmung + Details dazu, natürlich wollte er die Stat. Methode zuerst hören, von der ich nichts hatte (ich glaub das ist sein Test, ob man brav in der VO war) - Bootstrapping: KI für den Median von einer Strichrpobe mit Umfang 5 bestimmen, Bootstrap-Pivot Methode wollte er da auch noch hören - KS-Test: Def. Dn + Beweis - ML-Schätzer: da wollte er einige Zusammenhänge wissen, Fisher-Information, verzerrter Schätzer, Invarianz - Jeffreys A-priori
1) Deltamethode: allgemein, Varianzstab. Transfo (wollte da außer Konkurrenz das UE-Bsp wissen, wo wir das vorher noch transformiert haben) 2) (L)LS-Familien mit Bsp und dann der QQ-Plot 3) KI: welche Arten? eine näher erklären 4) Bootstrapping: was kann man da noch so alles machen (auch die Pivot-Bootstrapp-Methode) 5) ML-Funktion: warum maximiern, Eigenschaften, FRC-Schranke 6)Jeffreys A-priori
- hauptsatz der mathematischen statistik - KIs die üblichen und über die dualität beim testen, pivot und bootstrapping allgemein erklären - pwert - integraltransformation - ML alles was es da so gibt und wie aus der äquivarianz folgt, dass nicht alle ML schätzer unverzerrt sein können, geht irgendwie mit der jensenschen ungleichung - Jeffreys
-) Hauptsatz der mathematischen Statistik -) LS/ LLS-Familien, QQ-Plot -) KIs: Pivot, statistische Methode, Bootstrapping und Pivot-Bootstrapping -) ML-Schätzer: Definition, Eigenschaften, Satz 7.5, FRC-Schranke, Sind alle ML-Schätzer unverzerrt? Gegenbeispiel; -) konjugierte Familien: Definition, Beispiele und Vorteile davon;
-) Hauptsatz der mathematischen Statistik -) Pivotgrößen: Definition, Anwendung -) KIs: alle Methoden, Dualität zu Tests -) KS-Tests: Warum sind die D_n unabhängig von F? -) ML-Schätzer: Definition, Eigenschaften, Satz 7.5, FRC-Schranke -) Jeffreys A-priori
*) Hauptsatz der mathematischen Statistik (2-6) *) Pivot: Def., KI mittels approx. Pivot, Pivotgrößenmethode (4-9) *) Bootstrapping: Vorgangsweise bei KI und p-Wert erklären (5-5, 5-6, 5-9) *) p-Wert: Def. + Eigenschaften , sowie Beweis von p-Wert-Verteilung unter H0 (Integralstransformation) (4-16) *) statistische Methode (4-11) *) Zusammenhang: KI und Tests - wie man von KI zu Test kommt und umgekehrte Richtung (4-14) *) Likelihood-Fkt: Def. und Eigenschaften (Äquivarianz, konstistent?, effizient?, asyptotische Verteilung (Satz 7.5)) (7-1, 7-2, 7-8 ) *) FRC-Ungleichung (7-3) *) Fisher-Information: Def. + Eigenschaften (7-4) *) Jeffreys' A-priori-Verteilung: Motivation + Definition (8-3)
1) Hauptsatz der mathematischen Statistik: Ausdrücke Pivot und Statistik erklären, Anwendungen --> 2) Konstruktion von KI: Pivotmethode, Invertierung eines Tests --> 3) Dualität von KI und Tests: wie rechnet man um?, 4) Statistische Methode: aufzeichnen und erklären, 5) Bootstrapping: Algorithmus zur Konstruktion von KI anhand eines Beispiels (n=10, KI für den Median --> als Statistik zB Ordnungsstatistik nehmen), was kann man noch mit Bootstrapping machen (Bestimmung der Varianz, Bestimmung des p-Wertes) 6) p-Wert: 2 Definitionen, Verteilung unter Ho (mit Beweis) und unter H1 7) Integraltransformation: Anwendungen (Verteilung des p-Wertes unter Ho, Inversionsmethode) 8 ) Eigenschaften von ML - Schätzern: Definition, Äquivarianz, Gegenbeispiel zu unverzerrt (ML-Schätzer für die Varianz), asymptotische Verteilung (anhand derer sieht man auch folgendes:), asymptotische Effizienz (Begriff erklären), asymptotisch optimal (Konsistenz), Fisher-Information aufschreiben 9) konjugierte Verteilungsfamilien: was ist das, Vorteil (man braucht nur die Parameter updaten), Beispiel (X poissonverteilt, a-priori-Dichte = gamma)
[/quote]
[b]Viel Glück![/b]
|