La Démarche Statistique

La Démarche Statistique


Auteur :

"La démarche statistique" de Bernard Prum ne suppose aucune connaissance préalable, si ce n'est quelques lois élémentaires de probabilité (les bases des probabilités sont rappelées en annexe).
S'appuyant sur un exemple simple, il introduit les concepts de base et la démarche de test. Peu à peu il rassemble l'essentiel de ce qu'un étudiant à l'Université de niveau M, ou en Grande École doit connaître pour « faire des statistiques » : traitement de plusieurs paramètres, tests non paramétriques, approche bayésienne sans oublier les incontournables tests du khi-2..

40 €
En stock

 

Commande avant 16h,
expédié le jour même (lu. - ve.)

 

Livraison express sous 48h.

Rubrique : Pédagogie
ISBN : 9782854289206
Référence : 920
Année de parution : 2010
Cet ouvrage ne suppose aucune connaissance préalable, si ce n'est quelques lois élémentaires de probabilité (les bases des probabilités sont rappelées en annexe). S'appuyant sur un exemple simple, il introduit les concepts de base et la démarche de test.

Peu à peu il rassemble l'essentiel de ce qu'un étudiant  à l'Université de niveau M, ou en Grande École  doit connaître pour « faire des statistiques » : traitement de plusieurs paramètres, tests non paramétriques, approche bayésienne  sans oublier les incontournables tests du khi-2.

S'appuyant sans cesse sur des exemples illustrés, il défend les tests exacts (par opposition aux approximations, gaussiennes ou autres) et donc l'emploi permanent d'un logiciel de calcul simple (en l'occurrence R).

Cet ouvrage s'appuie sur les enseignements dispensés par l'auteur, essentiellement face à des médecins ou des biologistes, soucieux de comprendre comment les statistiques peuvent les aider dans leur démarche disciplinaire.
Référence : 920
Niveau : Licence – Maîtrise – Grandes Ecoles
Nombre de pages : 348
Format : 14,5x20,5
Reliure : Broché
Rôle
Prum Bernard Auteur

1 Modèles statistiques

2 Premiers éléments d’inférence statistique

3 Rapport de vraisemblance, Neyman-Pearson

4 Vraisemblance, Information

5 Estimation

6 Les trois tests

7 Modèles multiparamétriques

8 Test d’une hypothèse composée

9 Régions de confiance

10 Résumé: l’équation centrale
11 Tests du é2

12 Tests non paramétriques

13 Taille d’échantillon

14 Choix de modèle

15 Multi-tests

16 Approches stochastiques

17 L’approche bayésienne
Envoi

A Rappels de probabilités
A.1 Événements, probabilités, densités
A.2 Variables aléatoires
A.3 Fonctions de variables aléatoires
A.4 Lois multinomiales, Equilibre de Hardy-Weinberg
A.5 Les trois piliers des Probabilités
A.6 Transformée de Laplace
B Quelques programmes en R

1 Modèles statistiques
1.1 L’aléatoire
1.1.1 Inférence :
1.1.2 Lois empiriques, lois théoriques
1.2 Modèles statistiques
1.2.1 La vraisemblance ...
1.2.2 ... et la log-vraisemblance
1.2.3 Un exemple à suivre
1.2.4 Les trois avatars de ?
1.3 Bases probabilistes

2 Premiers éléments d’inférence statistique
2.1 Le modèle binomial
2.2 Estimation (cas de la binomiale)
2.3 Notion de test
2.3.1 Avant de rompre la symétrie
2.3.2 Où l’on rompt la symétrie
2.3.3 La démarche du test
2.3.4 La démarche par l’absurde
2.3.5 La relation entre niveau et puissance
2.4 Tests unilatères
2.4.1 Un exemple
2.4.2 Tests unilatères (contre p > p0)
2.4.3 Influence de la taille d’échantillon
2.5 Tests bilatères

3 Rapport de vraisemblance, Neyman-Pearson
3.1 Tests d’hypothèses simples
3.1.1 Rapport continu
3.1.2 Rapport non nécessairement continu
3.2 Rapport de vraisemblance monotone
3.2.1 Exemple gaussien
3.2.2 Cas général
3.2.3 Tests de H0 : ?* =
3.2.4 Familles exponentielles
3.2.5 Discussion

4 Vraisemblance, Information
4.1 La vraisemblance et ses dérivées
4.1.1 Échantillon
4.1.2 Le score L'X (é)
4.2 L’information de Fisher
4.2.1 L’information empirique
4.2.2 Changement de paramètre
4.2.3 La matrice d’information de Fisher
4.3 Exhaustivité
4.4 Exemples
4.4.1 Lois de Poisson
4.4.2 Lois gaussiennes
4.4.3 Lois Gamma
4.5 Perte d’information par image

5 Estimation
5.1 Estimation
5.1.1 Estimateur, biais, écart quadratique
5.1.2 Consistance
5.1.3 La borne de Cramér-Rao
5.1.4 Deux autres qualités asymptotiques
5.2 Maximum de vraisemblance
5.2.1 Définitions
5.2.2 Propriétés
5.3 Contrastes
5.4 Méthode des moments
5.5 Le théorème de Blackwell-Rao
5.5.1 Exemples
5.6 Paramètre é multidimensionnel
5.6.1 Image réciproque d’une hypothèse

6 Les trois tests
6.0.2 L’obligation de manipuler deux é
6.0.3 Le problème de ce chapitre
6.0.4 Un intervalle, deux points de vue
6.1 Le test du score
6.1.1 Le théorème du score
6.1.2 Le test
6.2 Le test de Wald
6.3 Test du rapport de vraisemblance
6.3.1 Le théorème
6.3.2 Le test
6.4 Discussion
6.4.1 Un exemple “non standard”

7 Modèles multiparamétriques
7.1 Quelques propriétés probabilistes
7.2 Les trois tests de H0 contre Hd
7.2.1 Les théorèmes
7.2.2 Les tests
7.3 Les trois tests de Hc contre Hd
7.3.1 Eléments théoriques pour le test de H1 contre H2
7.3.2 En dimensions quelconques
7.4 Le cas du modèle linéaire
7.4.1 Le modèle
7.4.2 Un théorème, des projections
7.4.3 Lois de Student et lois de Fisher-Snedecor
7.4.4 Les tests
7.4.5 Un exemple, la droite de régression

8 Test d’une hypothèse composée
8.1 Définitions
8.1.1 Niveau, puissance
8.1.2 Modèle de tests
8.2 é réel, tests unilatères
8.2.1 Test fondé sur T(X)
8.2.2 Test fondé sur Té(X)
8.2.3 Lien avec le rapport de vraisemblance monotone
8.3 é réel, tests bilatères
8.4 Paramètre multidimensionnel

9 Régions de confiance
9.1 Intervalles : pari, non rejet, confiance
9.2 Une démarche incontrôlée
9.3 Mise en œuvre : é E R
9.3.1 Intervalle de confiance unilatère
9.3.2 Intervalle de confiance bilatère
9.4 Région de prédiction

10 Résumé: l’équation centrale

11 Tests du é2
11.1 Bases probabilistes
11.2 Tests d’ajustement
11.2.1 Ajustement à une loi multinomiale fixe
11.2.2 Ajustement à une loi quelconque
11.2.3 Test avec estimation de paramètres
11.3 Tests d’indépendance

12 Tests non paramétriques
12.1 Définitions
12.2 Tests de rangs sur un échantillon
12.2.1 Statistiques d’ordre et de rang
12.2.2 Test “signe et rang”
12.3 Tests de rangs sur deux échantillons
12.4 Tests de Kolmogorov-Smirnov

13 Taille d’échantillon
13.1 Niveau, puissance, taille d’échantillon
13.2 Tests séquentiels
13.2.1 Test séquentiel du rapport de vraisemblances

14 Choix de modèle
14.1 Modèles emboˆétés et non emboˆétés
14. 1.1 Choix de la pénalisation: prédiction optimale
14.1.2 Choix de la pénalisation : consistance de l’ordre estimé
14.2 Sur-ajustement, la validation croisée

15 Multi-tests

16 Approches stochastiques
16.1 Ré-échantillonnage
16.1.1 Le bootstrap
16.1.2 Autres ré-échantillonnage, le Jackknife
16.2 Algorithmes EM

17 L’approche bayésienne
17.1 Lois de probabilité sur 0
17.1.1 Bayésien généralisé
17.2 Estimateur bayésien, admissibilité
17.2.1 Lois conjuguées
17.3 Le bayésien séquentiel
17.4 Loi non informative

Envoi

A Rappels de probabilités
A.1 Événements, probabilités, densités
A.2 Variables aléatoires
A.3 Fonctions de variables aléatoires
A.4 Lois multinomiales, Equilibre de Hardy-Weinberg
A.5 Les trois piliers des Probabilités
A.6 Transformée de Laplace
B Quelques programmes en R

Article du bulletin 491 - Paul Louis Hennequin - 15 décembre 2010

Par Bernard Prum. Cépaduès, mars 2010. 348 p. en 15 x 21. ISBN : 978-2-85428-920-6. Depuis une trentaine d’années, l’auteur enseigne la statistique à des étudiants se destinant aux métiers du vivant : médecine, biologie, génomique ; il en présente ici une synthèse couvrant à la fois tous les outils créés et mis en œuvre tout au long du vingtième siècle et les avancées récentes par rapport aux consultations de tables que permet l’informatique et en particulier le logiciel R.

Détaillons le contenu :

Modèles statistiques (inférence, lois empiriques, modèles statistiques, vraisemblance).
Premiers éléments d’inférence statistique (modèle binomial, estimation, démarche du test, niveau et puissance, tests unilatères et bilatères).
Rapport de vraisemblance. Neyman-Pearson (hypothèses simples, rapport monotone, familles exponentielles).
Vraisemblance, Information (dérivées de la vraisemblance, information de Fisher, exemples (Poisson, Gauss, Gamma)).
Estimation (estimateur, biais, consistance, borne de Cramer-Rao, Maximum de vraisemblance, théorème de Blackwell-Rao).
Les trois tests (tests du score, de Wald, du rapport de vraisemblance).
Modèles multiparamétriques (théorèmes, tests, modèle linéaire, lois de Student et de FisherSnedecor, droite de régression).
Test d’une hypothèse composée (tests unilatères, lien avec le rapport de vraisemblance monotone, tests bilatères, paramètre multidimensionnel).
Régions de confiance (intervalles : pari, non rejet, confiance).
Les cinq points de vue de la démarche statistique (test, degré de significativité, puissance, taille d’échantillon, intervalle de confiance).
Tests du khi2 (bases probabilistes, test d’ajustement, tests d’indépendance).
Tests non paramétriques (tests de rangs sur un et deux échantillons, Kolmogorov- Smirnov)
Taille d’échantillon (tests séquentiels).
Choix de modèle (modèles emboîtés, choix de la pénalisation, validation croisée).
Multi-tests (multi-tests d’une même hypothèse, test d’une hypothèse multiple, exemples).
Approches stochastiques (ré-échantillonnage, bootstrap, Jackknife).
Approche bayésienne (estimateur bayésien, bayésien séquentiel, loi non informative).

Dans un envoi final, l’auteur donne une liste des procédures et résultats qu’il n’a pu présenter ici : séries chronologiques, chaînes de Markov, statistique des processus, planification d’expériences, statistiques descriptives, valeurs extrêmes, grandes déviations.

Deux Annexes contiennent des Rappels de probabilités et Quelques programmes en R.

Les quatre pages de bibliographie rappellent à la fois les grands classiques du dernier demisiècle et les ouvrages récents ; un index rassemble les noms propres et les concepts.

De nombreuses notes de bas de page montrent le souci de préciser un point de calcul ou une référence historique pleine d’humour. Innovation louable pour un livre universitaire, de nombreuse figures sont en couleur, ce qui rend lumineuses les réflexions et mises en place qu’elles suggèrent.

L’auteur suggère que chaque lecteur choisisse sa démarche pour parcourir le volume en fonction de ses connaissances préalables et de ses intérêts. Peut-être regrettera-t-on qu’il ne puisse manifester davantage d’initiative en résolvant quelques exercices.

En tout cas le fil directeur est très clair et l’exposé mathématique est rigoureux, éclairé de nombreux exemples, articulé sur une solide charpente, ce qui fait de son étude un rare plaisir.

Paul-Louis HENNEQUIN