0% ont trouvé ce document utile (0 vote)
28 vues6 pages

Fimath

Le document présente une formation sur l'optimisation combinatoire, la théorie qualitative, l'orthogonalité, le machine learning, la théorie des jeux et le calcul tensoriel. Chaque section aborde des concepts clés, des exemples et des méthodes associées, allant de la théorie des graphes à l'apprentissage supervisé et non supervisé. Des techniques spécifiques comme la régression logistique et les méthodes numériques pour résoudre des systèmes d'équations sont également discutées.

Transféré par

Abderrahim El amrani
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
28 vues6 pages

Fimath

Le document présente une formation sur l'optimisation combinatoire, la théorie qualitative, l'orthogonalité, le machine learning, la théorie des jeux et le calcul tensoriel. Chaque section aborde des concepts clés, des exemples et des méthodes associées, allant de la théorie des graphes à l'apprentissage supervisé et non supervisé. Des techniques spécifiques comme la régression logistique et les méthodes numériques pour résoudre des systèmes d'équations sont également discutées.

Transféré par

Abderrahim El amrani
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Fimath, détails de formation

Abderrahim EL AMRANI
October 2024

1 Optimisation combinatoire
1.1 Chapitre 1: Théorie des graphes
La théorie des graphes étudie les structures composées de nœuds (sommets) et
de liens (arêtes). Exemple: Un réseau de transport peut être modélisé comme
un graphe où les villes sont des sommets et les routes des arêtes.

1.2 Chapitre 2: Modélisation des problèmes PLNE


La programmation linéaire en nombres entiers (PLNE) modélise des problèmes
où certaines variables doivent être des entiers. Exemple: Maximiser les profits
en produisant des articles en quantités discrètes.

1.3 Chapitre 3: Les algorithmes d’optimisation combina-


toire
Ces algorithmes résolvent des problèmes où l’objectif est de trouver la meilleure
solution parmi un ensemble fini. Exemple: L’algorithme du sac à dos résout
un problème d’optimisation en choisissant les objets à emporter avec un poids
limité.

1.4 Chapitre 4: Les méta-heuristiques


Les méta-heuristiques sont des algorithmes généraux comme les algorithmes
génétiques ou le recuit simulé, qui trouvent des solutions proches de l’optimum
pour des problèmes complexes. Exemple: Le recuit simulé est utilisé pour opti-
miser le placement de circuits électroniques.

2 Théorie qualitative
2.1 Rappel sur la théorie qualitative du S6
La théorie qualitative analyse les solutions des systèmes dynamiques sans les
résoudre explicitement. Exemple: Étudier la stabilité d’un point d’équilibre

1
d’un système.

2.2 Les formes normales


Une forme normale simplifie les équations différentielles près d’un point d’équilibre.
Exemple: Transforme un système complexe en une équation plus simple pour
faciliter l’analyse.

2.3 La théorie de la variété centre


La variété centre traite des solutions d’équations différentielles dans une sous-
espace de dimension réduite. Exemple: Permet d’étudier la dynamique proche
des points d’équilibre.

2.4 Les équations à retard


Les équations différentielles à retard modélisent des systèmes où les variations
dépendent de l’état passé. Exemple: Modélisation des populations où la crois-
sance dépend du passé.

3 Orthogonalité / Padé
3.1 Les EDP, équation de la chaleur et problème de Sturm-
Liouville intro sur les PO
Les EDP (Équations aux Dérivées Partielles) modélisent des phénomènes physiques
comme la diffusion de chaleur. Exemple: L’équation de la chaleur décrit com-
ment la température évolue dans une tige métallique.

3.2 Les polynômes orthogonaux: définition et manière de


les générer
Les polynômes orthogonaux sont des suites de polynômes qui se ”croisent” de
façon perpendiculaire sous un certain produit scalaire. Exemple: Les polynômes
de Legendre sont orthogonaux sur l’intervalle [-1, 1].

3.3 Les polynômes classiques


Les polynômes de Chebyshev, Hermite et Laguerre sont des exemples de polynômes
classiques orthogonaux. Exemple: Les polynômes de Chebyshev sont utilisés
pour l’approximation des fonctions.

2
3.4 La relation à trois termes, formule de Rodrigues
La relation à trois termes est une récurrence qui relie trois polynômes orthog-
onaux consécutifs. Exemple: Permet de calculer une suite de polynômes de
manière efficace.

3.5 Les grands théorèmes des polynômes orthogonaux


Ces théorèmes définissent les propriétés des polynômes orthogonaux, comme
leur convergence. Exemple: Le théorème de Favard garantit l’existence d’une
suite orthogonale sous certaines conditions.

3.6 Les fractions continues


Les fractions continues expriment un nombre comme une suite infinie de frac-
tions imbriquées. Exemple: Approcher irrationnellement des racines carrées.

3.7 L’idée derrière l’approximation des Padé


L’approximation de Padé est une méthode qui approche une fonction par une
fraction rationnelle. Exemple: Améliorer l’approximation de Taylor.

3.8 Comment calculer ses approximants


On calcule les approximants de Padé en résolvant un système d’équations linéaires.
Exemple: Approcher ex par une fraction rationnelle.

3.9 La table de Padé


La table de Padé est un tableau contenant différents approximants qui opti-
misent l’approximation d’une fonction.

3.10 La relation entre les approximants de Padé et les


polynômes orthogonaux
Les approximants de Padé peuvent être reliés aux polynômes orthogonaux par
des méthodes algébriques.

3.11 La relation entre les approximants de Padé avec les


fractions continues
Les fractions continues peuvent fournir les coefficients nécessaires à la construc-
tion des approximants de Padé.

3
3.12 L’interpolation vectorielle
L’interpolation vectorielle consiste à approcher une fonction vectorielle par une
fonction plus simple.

3.13 L’interpolation tensorielle


L’interpolation tensorielle est une généralisation de l’interpolation dans des es-
paces de dimension supérieure.

4 Machine Learning
4.1 Introduction et types de learning
Le machine learning regroupe des méthodes pour faire ”apprendre” des modèles
à partir de données. Il existe trois types principaux: supervisé, non-supervisé,
et semi-supervisé. Exemple: Apprentissage supervisé pour la classification
d’images.

4.2 Analyse de données: PCA & réduction de dimension


La PCA (Analyse en Composantes Principales) est une technique pour réduire
la dimensionnalité des données tout en conservant le maximum de variance.
Exemple: Réduire un espace à 3 dimensions en 2 tout en préservant l’essentiel
de l’information.

4.3 Apprentissage non-supervisé


L’apprentissage non-supervisé se base sur des données non-étiquetées. Exem-
ple: Le clustering hiérarchique pour regrouper des clients selon leurs habitudes
d’achat.

4.3.1 Clustering hiérarchique


Le clustering hiérarchique crée une hiérarchie de groupes. Exemple: Diviser une
population en sous-groupes selon leur comportement d’achat.

4.3.2 Nués dynamiques


Les nués dynamiques (k-means) regroupent les données en clusters en min-
imisant l’inertie intra-cluster.

4.4 Apprentissage supervisé


L’apprentissage supervisé nécessite des données étiquetées pour entraı̂ner le
modèle.

4
4.4.1 Régression linéaire, simple et multiple
La régression linéaire prédit une variable dépendante à partir de plusieurs vari-
ables indépendantes. Exemple: Prédire le prix d’une maison en fonction de sa
taille et de son emplacement.

4.4.2 Régression logistique binaire et multiclasse


La régression logistique est utilisée pour des problèmes de classification. Exem-
ple: Prédire si un e-mail est un spam (binaire).

4.4.3 RL binaire, construction du modèle et évaluation, métriques,


ROC et diagramme de fiabilité
La régression logistique binaire classifie deux classes, et les métriques comme
l’AUC et la courbe ROC évaluent la performance du modèle.

4.5 Implémentation sur Python/R/SPSS


Ces algorithmes peuvent être implémentés avec Python, R, ou SPSS.

5 Théorie des jeux


5.1 Introduction, l’idée derrière cette théorie
La théorie des jeux analyse les interactions stratégiques entre agents. Exemple:
Deux entreprises décident du prix de leurs produits.

5.2 Exemples de jeux


Le dilemme du prisonnier est un exemple classique de la théorie des jeux.

5.3 Types de jeux


Les jeux peuvent être coopératifs ou non-coopératifs. Exemple: Les jeux à
somme nulle opposent des gains égaux et opposés.

5.4 L’équilibre de Nash et Pareto


L’équilibre de Nash est une situation où aucun joueur ne peut améliorer sa
situation seul. Exemple: Deux entreprises ne changent pas leurs stratégies de
prix car elles sont en équilibre de Nash.

5.5 L’analyse des interactions multi-agents


Cette analyse étudie comment plusieurs agents interagissent dans un système
compétitif ou collaboratif.

5
6 Calcul tensoriel
6.1 Les méthodes numériques pour la résolution de Ax=b
Ces méthodes résolvent des systèmes d’équations linéaires. Exemple: Utiliser
l’élimination de Gauss pour résoudre un système linéaire.

6.2 Les méthodes de projection de type Krylov, Arnoldi,


FOM, IOM, DIOM, GMRES, Lanczos, Lanczos symétrique,
Bilanczos
Ces méthodes projettent le problème dans un espace de dimension réduite pour
faciliter la résolution.

6.3 La méthode des moindres carrés, les méthodes de pro-


jection dans le cas vectoriel AX=B
La méthode des moindres carrés résout les problèmes de sur-détermination.
Exemple: Approcher des données bruitées par une droite.

6.4 Introduction aux tenseurs, définition et propriété


Un tenseur est une généralisation des matrices à des dimensions supérieures.
Exemple: Un tenseur 3D peut modéliser un cube de données.

6.5 Les opérateurs fold/unfold, bcirc


Ces opérateurs transforment les tenseurs en matrices pour simplifier les calculs.
Exemple: L’opération ”unfold” aplatit un tenseur.

6.6 Le produit-t (t-product)


Le produit-t est une opération entre tenseurs qui généralise la multiplication
matricielle.

6.7 Relation avec matrice de Fourier, et algorithme de t-


product avec FFT et IFFT
Le produit-t est souvent calculé via la transformation de Fourier pour optimiser
les calculs.

Vous aimerez peut-être aussi