Modele de pre inscription

En ce qui concerne (2), je pense que, à moyen terme, nous sommes en fait mieux à même de comprendre les types de forces qui façonnent la prise de décision des gens. Les modèles que nous testons et calibrer peuvent ne pas être grands pour prédire les décisions individuelles à l`avenir, mais ils sont utiles pour comprendre quels genres de compromis tendent à dominer les autres sur l`agrégat. C`est une contribution utile à la conception des politiques et des programmes aussi bien. Je serais surpris qu`ils soient en sécurité. Vous ne savez pas si votre raisonnement est censé s`appliquer à ceci, mais si vous modélisez initialement vos données pour être échangeables (i.i.d. donné un paramètre), cela signifie que vous mettez zéro probabilité précédente sur la situation étant non échangeables. Si une fois que vous avez vu les données que vous décidez que vous devez introduire un paramètre d`autorégression pour permettre une certaine structure de série temporelle, vous augmentez la probabilité antérieure de zéro à quelque chose plus grand que zéro (il peut en fait être un si vous ne mettez pas la masse de point sur le paramètre étant exactement zéro). J`ai toujours pensé que je serais heureux si quelqu`un a travaillé sur ce que cela implique, mais mon intuition est que c`est un grand geste et en aucun cas inoffensif. Et comment un «préalable» peut-il être appelé un préalable si elle a été introduite seulement après que les données ont été vus. (En fait, j`ai un exemple de jouet impliquant des données binaires illustrant comment parieur de Finetti peut subir une perte sûre si les antécédents sont changés après avoir observé des données afin de permettre la dépendance/non-échangeabilité. Mais je ne sais pas si vous Jaynesians peut accepter cela comme un problème.) Il me semble évident que le mouvement est sûr dans un sens asymptotique de consistance (dans la mesure où le modèle élargi postérieur hérite la consistance asymptotique de la probabilité). Je suppose que la sécurité des échantillons finis devrait être définie par rapport à une certaine probabilité d`erreur de style Mayo — par préférence, erreur de type M. Ce qui se passe en fait, c`est ça.

Les modèles statistiques (comme généralement conçus) sont vraiment une sorte de résumé d`un ensemble de données spécifiques. Ces tests qui Frequentists croient “confirmer” le modèle et soi-disant quelque chose sur le monde réel ne font rien de plus que de vérifier que le modèle est un bon résumé de ce jeu de données spécifiques.

    Share This: