

La statistique est l'une des branches des mathématiques appliquées qui voit son utilisation sans cesse s'élargir aux domaines les plus variés : physique, chimie, biologie, génétique, médecine, démographie, sociologie, psychologie, marketing et finances arrivent en tête des utilisateurs de la statistique. Il apparaît donc indispensable lors d'une formation professionnelle, de s'initier à la modélisation statistique.
C'est ce que propose cet ouvrage. Il s'articule en deux parties :
- La première précise le jargon et les résultats de base en probabilités et statistique en vue de la modélisation des observations.
- La seconde permet au lecteur, à l'aide d'une série d'annales corrigées, d'évaluer son acquis et d'élargir ses connaissances. Cet ouvrage s'adresse donc à un large public d'étudiants, de chercheurs ou d'ingénieurs.
Commande avant 16h,
expédié le jour même (lu. - ve.)
Livraison express sous 48h.
Référence : | 590 |
Niveau : | étudiants, ingénieurs. |
Nombre de pages : | 216 |
Format : | 17x24 |
Reliure : | Broché |
Rôle | |
---|---|
Garel Bernard | Auteur |
Table des matières
I Résumé de cours
1 Les espaces probabilisés
1.1 L’espace fondamental
1.2 Probabilité
1.3 Probabilité conditionnelle
1.4 Indépendance
1.5 Analyse combinatoire
1.6 Modèles d’urnes
2 Variables Aléatoires Réelles
2.1 Généralités
2.2 Variable aléatoire réelle discrète
2.3 Variable aléatoire réelle continue
2.4 Loi d’une fonction d’une V.A.R.
2.5 Diverses inégalités
3 Vecteurs aléatoires réels
3.1 Généralités
3.2 Lois marginales
3.3 Indépendance
3.4 Espérance, matrice de covariance et de corrélation
3.5 Calcul sur les vecteurs aléatoires
3.6 Lois et espérances conditionnelles
4 Fonction caractéristique et convergences
4.1 Un outil : la fonction caractéristique
4.2 Diverses notions de convergence
4.3 Les grands théorèmes
5 Vecteurs gaussiens
5.1 Rappels
5.2 Premières définitions et théorèmes
5.3 Indépendance des vecteurs gaussiens
5.4 Loi conditionnelle
5.5 Principales lois issues de la loi normale
6 L’estimation
6.1 Généralités
6.2 Théorie de l’information
6.3 Estimation sans biais de variance minimum
6.4 La méthode du maximum de vraisemblance
6.5 La méthode des moindres carrés
6.6 La méthode des moments
6.7 Intervalle de confiance
7 Test statistique
7.1 Quelques définitions
7.2 Test paramétrique entre deux hypothèses simples
7.3 Test paramétrique entre hypothèses composites
7.4 Quelques tests classiques
II Annales corrigées
- Partiel de décembre 1990
Variables aléatoires discrètes, simulation de variables aléatoires discrètes, simulation de variables aléatoires normales (Méthode de Box-Müller)
- Examen de mars 1991
Estimation (loi uniforme), tests d’hypothèses sur la moyenne d’une loi normale, analyse de la variance (1)
- Partiel de décembre 1991
Coefficient de corrélation de Spearman, variables aléatoires discrètes (loi binomiale), variables aléatoires à densité (loi Gamma)
- Examen de mars 1992
Estimation (loi de Weibull), test d’hypothèses (loi de Weibull), analyse de la variance (2)
- Partiel de décembre 1992
Fonction de répartition et espérance, régression orthogonale
- Examen de mars 1993
Estimation, analyse de la variance (3), fiabilité (loi Gamma)
- Partiel de décembre 1993
Lois géométriques, autocorrélation des rangs de Spearman, loi exponentielle
- Examen de mars 1994
Analyse de la variance (4), estimation, tests d’hypothèses (loi à rapport de vraisemblance monotone)
- Partiel de décembre 1994
Changement de variables, loi multinomiale, le jeu de Pierre et Marie, vecteurs gaussiens
- Examen de mars 1995
Estimation de theta, test sur theta (loi Gamma), test de Kolmogorov-Smirnov
- Partiel de décembre 1995
Couples à densité (loi du produit, loi du quotient), tirages aléatoires, l’entropie en probabilités
- Examen de mars 1996
Fonction caractéristique et convergence en loi, test d’hypothèses sur la variance, estimateur sans biais de l’écart type
- Examen de mai 1997
Changement de variables (loi de Cauchy comme quotient de deux lois normales), statistique de test d’un mélange gaussien, estimation (loi lognormale), test localement optimal (modèle additif en traitement du signal)
- Examen de mai 1998
Changement de variables (loi d’une différence, loi d’un quotient), fiabilité, approximations de la loi binomiale, estimation-test, série chronologique
- Examen d’avril 1999
Changement de variables (lois de Cauchy), convergence en probabilité (loi des grands nombres), contrôle de qualité, estimation (loi uniforme), marche aléatoire (chaîne de Markov)
- Examen d’avril 2000
Loi de Cauchy, loi binomiale et loi de Poisson, indépendance après changement de variables, estimation (loi exponentielle translatée), test localement optimal (modèle multiplicatif en traitement du signal)
- Examen de mai 2001
Modélisation probabiliste et statistique vi
Gestion optimale de stock, loi stable, capture - recapture (estimation et test)
Bibliographie
Index