• À paraître
Algèbre linéaire numérique avec MAPLE
Algèbre linéaire numérique avec MAPLE
Algèbre linéaire numérique avec MAPLE
Algèbre linéaire numérique avec MAPLE

Algèbre linéaire numérique avec MAPLE


Cet ouvrage prolonge une conviction déjà au cœur du précédent. Pour comprendre pleinement un objet mathématique, il faut aussi l’observer dans sa mise en œuvre numérique. Les fonctions, dans le précédent opus, et les matrices, dans celui-ci, partagent cette même réalité. Dès lors que l’on quitte les situations formatées pour l’enseignement académique, ce sont leurs incarnations numériques qui guident l’analyse.

 

Commande avant 16h,
expédié le jour même (lu. - ve.)

 

Livraison express sous 48h.

Rubrique : Mathématiques
ISBN : 9782383953029
Référence : 2302
À paraître

Cet ouvrage prolonge une conviction déjà au cœur du précédent. Pour comprendre pleinement un objet mathématique, il faut aussi l’observer dans sa mise en œuvre numérique. Les fonctions, dans le précédent opus, et les matrices, dans celui-ci, partagent cette même réalité. Dès lors que l’on quitte les situations formatées pour l’enseignement académique, ce sont leurs incarnations numériques qui guident l’analyse.

Telle qu’elle est enseignée, l’algèbre linéaire repose sur des objets abstraits. Les coefficients des matrices et vecteurs sont précisément définis ; les opérations sont sans erreur. Mais hors de ce cadre, ces objets révèlent des comportements que seule une approche numérique permet de mettre en évidence : sensibilité, conditionnement, stabilité des méthodes.

L’algèbre linéaire numérique est au cœur d’innombrables applications : simulation de structures, réseaux de capteurs, traitement d’images, analyse de données, modèles prédictifs. La qualité des analyses et la fiabilité des décisions reposent notamment sur le recours à des méthodes efficaces de résolution des systèmes linéaires et de recherche des valeurs propres, et sur une mise en œuvre maîtrisée de la décomposition en valeurs singulières.

Tout au long de ses huit chapitres, ce livre propose une exploration concrète et rigoureuse du conditionnement, des factorisations matricielles, des méthodes de résolution et d’analyse spectrale, en s’appuyant sur des exemples concrets et sur le potentiel du logiciel Maple dans sa version 2026. Quatre études clôturent ce parcours thématique, toutes corrigées de manière détaillée dans un cahier de travail Maple, accessible en ligne sur le site de l’éditeur, à la fiche de l’ouvrage.

Référence : 2302
Nombre de pages : 208
Format : 16x24 cm
Reliure : Broché

Téléchargement

2302 Chapitre 6 – Fichier pour SVD photo niveaux de gris

Téléchargement

2302 Chapitre 6 – Deux fichiers pour SVD photo couleur

Téléchargement

2302 Chapitre 6 – Document Maple pour données météorologiques

Téléchargement

2302 Chapitre 8 – Document Excel pour l'étude n°2

Téléchargement

Avant-propos 

1 Analyse d’erreurs

1.1 Rappels et définitions 

1.1.1 Les erreurs 

1.1.2 Les chiffres significatifs 

1.1.3 Les troncatures et arrondis 

1.1.4 La propagation des erreurs 

1.2 Conditionnement des systèmes linéaires 

1.2.1 Le conditionnement d’une matrice 

1.2.2 Une interprétation géométrique du conditionnement

1.3 Étude d’un système linéaire 

1.3.1 Le système non perturbé 

1.3.2 Le système perturbé via sa matrice 

1.3.2.1 L’évaluation de l’erreur absolue 

1.3.2.2 L’évaluation de l’erreur relative 

1.3.3 Le système perturbé via son second membre 

1.3.3.1 L’évaluation de l’erreur absolue 

1.3.3.2 L’évaluation de l’erreur relative 

1.4 Étude d’un système linéaire en précision finie 

1.5 Conditionnement - Norme - Déterminant 

1.6 Conclusion 

2 Systèmes linéaires et méthodes directes

2.1 Les formules de Cramer 

2.1.1 L’approche théorique 

2.1.2 Le coût de l’algorithme 

2.2 La méthode du pivot de Gauss 

2.2.1 L’approche théorique 

2.2.2 Le pivot de Gauss illustré 

2.2.3 Le pivot de Gauss-Jordan illustré 

2.2.4 Les commandes natives 

2.2.4.1 La commande GaussianElimination 

2.2.4.2 La commande ReducedRowEchelonForm 

2.2.4.3 La commande Pivot 

2.2.4.4 Les commandes de résolution directe 

2.2.5 Le coût de l’algorithme 

2.2.6 Le choix du pivot 

2.2.6.1 Le problème du très petit pivot 

2.2.6.2 Le pivot et les problèmes d’échelle 

2.3 Cramer versus Gauss. On chiffre ! 

2.3.1 Les nombres d’opérations 

2.3.2 Les temps d’exécution 

2.4 Les factorisations LU 

2.4.1 Manipulations de matrices unipotentes 

2.4.2 L’approche théorique 

2.4.2.1 En l’absence de pivot nul 

2.4.2.2 En présence de pivots nuls 

2.4.3 Les avantages de la factorisation LU 

2.4.4 La méthode illustrée 

2.4.4.1 La factorisation sans pivot nul 

2.4.4.2 La factorisation avec pivot nul 

2.4.4.3 L’inversion de matrice 

2.4.4.4 Le calcul du déterminant 

2.4.5 La factorisation LU de Crout 

2.4.6 La factorisation LU de Cholesky 

2.4.6.1 L’approche théorique 

2.4.6.2 La méthode illustrée 

2.4.7 Les commandes natives 

2.4.7.1 La commande directe 

2.4.7.2 Le sous-package [NumericalAnalysis] 

2.5 La factorisation QR 

2.5.1 L’approche théorique 

2.5.1.1 La méthode de Gram-Schmidt 

2.5.1.2 La méthode de Householder 

2.5.2 Les méthodes illustrées 

2.5.2.1 Le procédé de Gram-Schmidt 

2.5.2.2 Le procédé de Householder 

2.5.2.3 La commande native 

2.6 Les systèmes surdéterminés 

2.6.1 L’approche théorique 

2.6.2 La température le long d’un tube 

2.6.2.1 La commande native 

2.6.2.2 Les équations normales 

2.6.2.3 L’interprétation géométrique 

2.6.2.4 La factorisation QR 

2.7 Les matrices de préconditionnement 

2.7.1 L’étude du système initial 

2.7.2 L’équilibrage du système 

2.7.3 L’étude du système perturbé 

3 Systèmes linéaires et méthodes itératives

3.1 L’amélioration itérative 

3.1.1 L’approche théorique 

3.1.2 L’intérêt de la méthode 

3.1.3 La méthode illustrée 

3.1.3.1 L’initialisation des données 

3.1.3.2 L’initialisation du processus d’itérations 

3.1.3.3 La réalisation des itérations 

3.2 Les méthodes itératives classiques 

3.2.1 L’approche théorique 

3.2.1.1 Les principes généraux 

3.2.1.2 La convergence 

3.2.2 La méthode de Jacobi 

3.2.3 La méthode de Gauss-Seidel 

3.2.4 La méthode de relaxation 

3.2.5 La convergence avec des matrices particulières 

3.2.6 L’étude d’un réseau électrique 

3.2.6.1 L’identification du système linéaire 

3.2.6.2 L’analyse de la matrice 

3.2.6.3 L’étude par la méthode Jacobi 

3.2.6.4 L’étude par la méthode de Gauss-Seidel 

3.2.6.5 L’étude par la méthode sor 

3.2.6.6 La recherche de la relaxation optimale 

3.2.6.7 Les commandes natives 

3.3 Au-delà de Jacobi et Gauss-Seidel 

4 LinearSolve - Le panorama 

4.1 La synthèse des options et usages 

4.2 SparseDirect versus SparseIterative 

4.3 SparseDirect versus hybrid 

4.4 LU versus QR 

4.5 SparseDirect versus SparseLU versus none 

4.6 Zoom sur SparseIterative 

4.6.1 Les options générales 

4.6.2 Les options du préconditionneur 

4.6.3 Cas pratique 

4.7 Zoom sur modular 

4.8 Zoom sur solve et subs 

5 Valeurs propres

5.1 Localisation des valeurs propres 

5.1.1 Les disques de Gershgorin 

5.1.1.1 L’approche théorique 

5.1.1.2 La méthode illustrée 

5.2 La méthode de la puissance 

5.2.1 L’approche théorique 

5.2.2 La méthode illustrée 

5.2.3 L’étude d’un système masses-ressorts 

5.2.3.1 La matrice de rigidité 

5.2.3.2 Les modes propres et valeurs propres 

5.2.3.3 L’analyse numérique 

5.3 La méthode de la puissance inverse 

5.4 La méthode de la puissance inverse décalée 

5.4.1 L’approche théorique 

5.4.2 La méthode illustrée 

5.5 La décomposition de Schur réelle 

5.5.1 L’approche théorique 

5.5.2 La méthode illustrée 

5.6 La méthode QR non décalée 

5.6.1 L’approche théorique 

5.6.1.1 L’algorithme 

5.6.1.2 Le coût computationnel 

5.6.2 La méthode illustrée 

5.7 La méthode QR décalée 

5.7.1 L’approche théorique 

5.7.1.1 L’algorithme 

5.7.1.2 Le traitement des paires complexes 

5.7.2 La méthode illustrée 

6 Valeurs singulières

6.1 Un graphique pour comprendre 

6.2 L’approche théorique 

6.2.1 Le théorème de SVD 

6.2.2 La matrice pseudo-inverse 

6.2.3 Son interprétation et ses applications 

6.3 La transformation de la sphère unité 

6.3.1 La SVD détaillée 

6.3.2 L’identification des transformations géométriques 

6.3.3 La SVD par la commande native 

6.3.4 La comparaison des deux SVD 

6.4 Le traitement d’une photographie 

6.4.1 Le principe de la compression 

6.4.2 La troncature par SVD 

6.4.3 L’analyse des troncatures 

6.4.3.1 La SVD tronquée à 80 

6.4.3.2 La SVD tronquée à 110 

6.5 Un relevé de données météorologiques 

6.5.1 Les données 

6.5.2 Les modalités de l’étude 

6.5.3 La modélisation des épisodes météorologiques 

6.5.3.1 Les modèles par SVD 

6.5.3.2 Les modèles par commande native 

6.5.4 L’identification des isothermes 

6.5.5 L’analyse en composantes principales 

6.5.6 L’interprétation des résultats 

7 Stabilité numérique de Maple 

7.1 La commande Digits 

7.2 Le paramètre UseHardwareFloats 

7.3 Des algorithmes et des bibliothèques éprouvés 

7.3.1 Une illustration avec la fonction hypergéométrique

7.3.2 Une illustration avec l’exponentielle de matrice 

7.3.2.1 L’évaluation par commande directe 

7.3.2.2 L’évaluation par la méthode détaillée 

7.4 La FMA 

7.5 L’arithmétique par intervalles 

7.5.1 Le principe général 

7.5.2 La méthode illustrée 

7.5.2.1 La commande INTERVAL 

7.5.2.2 La commande RealBox 

7.6 Conclusion 

8 Pour s’entraîner

Étude no 1 - Un contrat d’assurance 

Étude no 2 - Un profil socio-démographique 

Étude no 3 - Un pont suspendu 

Étude no 4 - La localisation de deux émetteurs 

Bibliographie

Index

Livres de l'auteur Jean-François Imokrane