Articles

Modèle mathématique

Dans le commerce et l’ingénierie, les modèles mathématiques peuvent être utilisés pour maximiser une certaine sortie. Le système considéré nécessitera certaines entrées. Le système reliant les entrées aux sorties dépend également d’autres variables : variables de décision, variables d’état, variables exogènes et variables aléatoires.

Les variables de décision sont parfois appelées variables indépendantes. Les variables exogènes sont parfois appelées paramètres ou constantes.Les variables ne sont pas indépendantes les unes des autres car les variables d’état dépendent des variables de décision, d’entrée, aléatoires et exogènes. En outre, les variables de sortie dépendent de l’état du système (représenté par les variables d’état).

Les objectifs et les contraintes du système et de ses utilisateurs peuvent être représentés comme des fonctions des variables de sortie ou des variables d’état. Les fonctions objectives dépendront de la perspective de l’utilisateur du modèle. Selon le contexte, une fonction objectif est également connue sous le nom d’indice de performance, car il s’agit d’une mesure d’intérêt pour l’utilisateur. Bien qu’il n’y ait pas de limite au nombre de fonctions objectives et de contraintes qu’un modèle peut avoir, l’utilisation ou l’optimisation du modèle devient plus impliquée (sur le plan informatique) à mesure que le nombre augmente.

Par exemple, les économistes appliquent souvent l’algèbre linéaire lorsqu’ils utilisent des modèles d’entrée-sortie. Les modèles mathématiques compliqués qui comportent de nombreuses variables peuvent être consolidés par l’utilisation de vecteurs où un symbole représente plusieurs variables.

Information a prioriModifier

Pour analyser quelque chose avec une « approche boîte noire » typique, seul le comportement du stimulus/réponse sera pris en compte, pour déduire la boîte (inconnue). La représentation habituelle de ce système boîte noire est un diagramme de flux de données centré sur la boîte.

Les problèmes de modélisation mathématique sont souvent classés en modèles boîte noire ou boîte blanche, en fonction de la quantité d’informations a priori disponibles sur le système. Un modèle de boîte noire est un système dont on ne dispose d’aucune information a priori. Un modèle de boîte blanche (également appelé boîte de verre ou boîte claire) est un système pour lequel toutes les informations nécessaires sont disponibles. Pratiquement tous les systèmes se situent quelque part entre les modèles boîte noire et boîte blanche, ce concept n’est donc utile que comme guide intuitif pour décider de l’approche à adopter.

En général, il est préférable d’utiliser autant d’informations a priori que possible pour rendre le modèle plus précis. Par conséquent, les modèles à boîte blanche sont généralement considérés comme plus faciles, car si vous avez utilisé les informations correctement, alors le modèle se comportera correctement. Les informations a priori se présentent souvent sous la forme d’une connaissance du type de fonctions reliant les différentes variables. Par exemple, si nous faisons un modèle du fonctionnement d’un médicament dans un système humain, nous savons que la quantité de médicament dans le sang est généralement une fonction à décroissance exponentielle. Mais il nous reste encore plusieurs paramètres inconnus : à quelle vitesse la quantité de médicament décroît-elle et quelle est la quantité initiale de médicament dans le sang ? Cet exemple n’est donc pas un modèle entièrement en boîte blanche. Ces paramètres doivent être estimés par certains moyens avant que l’on puisse utiliser le modèle.

Dans les modèles à boîte noire, on essaie d’estimer à la fois la forme fonctionnelle des relations entre les variables et les paramètres numériques de ces fonctions. En utilisant des informations a priori, on pourrait se retrouver, par exemple, avec un ensemble de fonctions qui pourraient probablement décrire le système de manière adéquate. S’il n’y a pas d’information a priori, nous essayerons d’utiliser des fonctions aussi générales que possible pour couvrir tous les modèles différents. Une approche souvent utilisée pour les modèles de boîte noire sont les réseaux neuronaux qui ne font généralement pas d’hypothèses sur les données entrantes. Les algorithmes NARMAX (Nonlinear AutoRegressive Moving Average model with eXogenous inputs), développés dans le cadre de l’identification des systèmes non linéaires, peuvent également être utilisés pour sélectionner les termes du modèle, déterminer la structure du modèle et estimer les paramètres inconnus en présence de bruits corrélés et non linéaires. L’avantage des modèles NARMAX par rapport aux réseaux neuronaux est que NARMAX produit des modèles qui peuvent être écrits et reliés au processus sous-jacent, alors que les réseaux neuronaux produisent une approximation opaque.

Information subjectiveModification

Il est parfois utile d’incorporer des informations subjectives dans un modèle mathématique. Cela peut être fait sur la base de l’intuition, de l’expérience ou de l’opinion d’un expert, ou sur la base de la commodité de la forme mathématique. Les statistiques bayésiennes fournissent un cadre théorique permettant d’incorporer une telle subjectivité dans une analyse rigoureuse : nous spécifions une distribution de probabilité antérieure (qui peut être subjective), puis nous mettons à jour cette distribution en fonction des données empiriques.

Un exemple du moment où une telle approche serait nécessaire est une situation dans laquelle un expérimentateur plie légèrement une pièce de monnaie et la lance une fois, en enregistrant si elle tombe sur face, et on lui donne ensuite la tâche de prédire la probabilité que le prochain lancer tombe sur face. Après avoir plié la pièce, la véritable probabilité que la pièce tombe sur face est inconnue ; l’expérimentateur doit donc décider (peut-être en regardant la forme de la pièce) de la distribution antérieure à utiliser. L’incorporation d’une telle information subjective pourrait être importante pour obtenir une estimation précise de la probabilité.

Modification de la complexité

En général, la complexité du modèle implique un compromis entre la simplicité et la précision du modèle. Le rasoir d’Occam est un principe particulièrement pertinent pour la modélisation, son idée essentielle étant que parmi les modèles ayant un pouvoir prédictif à peu près égal, le plus simple est le plus souhaitable. Si une complexité accrue améliore généralement le réalisme d’un modèle, elle peut rendre le modèle difficile à comprendre et à analyser, et peut également poser des problèmes de calcul, notamment d’instabilité numérique. Thomas Kuhn soutient qu’au fur et à mesure que la science progresse, les explications ont tendance à devenir plus complexes avant qu’un changement de paradigme n’offre une simplification radicale.

Par exemple, lors de la modélisation du vol d’un avion, nous pourrions intégrer chaque pièce mécanique de l’avion dans notre modèle et ainsi acquérir un modèle presque boîte blanche du système. Cependant, le coût de calcul lié à l’ajout d’une telle quantité de détails empêcherait effectivement l’utilisation d’un tel modèle. En outre, l’incertitude augmenterait en raison d’un système trop complexe, car chaque partie distincte induit une certaine variance dans le modèle. Il est donc généralement approprié de faire quelques approximations pour réduire le modèle à une taille raisonnable. Les ingénieurs peuvent souvent accepter certaines approximations afin d’obtenir un modèle plus robuste et plus simple. Par exemple, la mécanique classique de Newton est un modèle approximatif du monde réel. Pourtant, le modèle de Newton est tout à fait suffisant pour la plupart des situations de la vie ordinaire, c’est-à-dire tant que la vitesse des particules est bien inférieure à celle de la lumière et que nous n’étudions que les macroparticules.

Notez qu’une meilleure précision ne signifie pas nécessairement un meilleur modèle. Les modèles statistiques sont sujets à l’overfitting, ce qui signifie qu’un modèle est trop ajusté aux données et qu’il a perdu sa capacité à généraliser à de nouveaux événements qui n’ont pas été observés auparavant.

Entraînement et tuningEdit

Tout modèle qui n’est pas une pure boîte blanche contient certains paramètres qui peuvent être utilisés pour ajuster le modèle au système qu’il est censé décrire. Si la modélisation se fait par un réseau de neurones artificiels ou autre apprentissage automatique, l’optimisation des paramètres est appelée formation, tandis que l’optimisation des hyperparamètres du modèle est appelée réglage et utilise souvent la validation croisée. Dans une modélisation plus conventionnelle par le biais de fonctions mathématiques explicitement données, les paramètres sont souvent déterminés par ajustement de courbe.

Évaluation du modèleÉdition

Une partie cruciale du processus de modélisation consiste à évaluer si un modèle mathématique donné décrit ou non un système avec précision. Il peut être difficile de répondre à cette question car elle implique plusieurs types d’évaluation différents.

Ajustage aux données empiriquesEdit

En général, la partie la plus facile de l’évaluation du modèle consiste à vérifier si un modèle s’adapte aux mesures expérimentales ou à d’autres données empiriques. Dans les modèles avec paramètres, une approche courante pour tester cette adéquation consiste à diviser les données en deux sous-ensembles disjoints : les données d’apprentissage et les données de vérification. Les données d’apprentissage sont utilisées pour estimer les paramètres du modèle. Un modèle précis correspondra étroitement aux données de vérification, même si ces données n’ont pas été utilisées pour définir les paramètres du modèle. Cette pratique est appelée validation croisée en statistique.

Définir une métrique pour mesurer les distances entre les données observées et prédites est un outil utile pour évaluer l’ajustement du modèle. En statistique, en théorie de la décision et dans certains modèles économiques, une fonction de perte joue un rôle similaire.

Alors qu’il est assez simple de tester l’adéquation des paramètres, il peut être plus difficile de tester la validité de la forme mathématique générale d’un modèle. En général, davantage d’outils mathématiques ont été développés pour tester l’adéquation des modèles statistiques que des modèles impliquant des équations différentielles. Les outils issus de la statistique non paramétrique peuvent parfois être utilisés pour évaluer dans quelle mesure les données s’adaptent à une distribution connue ou pour aboutir à un modèle général qui ne fait que des hypothèses minimales sur la forme mathématique du modèle.

Portée du modèleEdit

Evaluer la portée d’un modèle, c’est-à-dire déterminer à quelles situations le modèle est applicable, peut être moins simple. Si le modèle a été construit sur la base d’un ensemble de données, il faut déterminer pour quels systèmes ou situations les données connues constituent un ensemble de données « typique ».

La question de savoir si le modèle décrit bien les propriétés du système entre les points de données est appelée interpolation, et la même question pour les événements ou les points de données en dehors des données observées est appelée extrapolation.

A titre d’exemple des limites typiques de la portée d’un modèle, dans l’évaluation de la mécanique classique newtonienne, nous pouvons noter que Newton a effectué ses mesures sans équipement avancé, il ne pouvait donc pas mesurer les propriétés des particules voyageant à des vitesses proches de la vitesse de la lumière. De même, il ne mesurait pas les mouvements des molécules et autres petites particules, mais uniquement les macro-particules. Il n’est alors pas surprenant que son modèle n’extrapole pas bien dans ces domaines, même si son modèle est tout à fait suffisant pour la physique de la vie ordinaire.

Considérations philosophiquesModifier

De nombreux types de modélisation impliquent implicitement des revendications sur la causalité. C’est généralement (mais pas toujours) le cas des modèles impliquant des équations différentielles. Le but de la modélisation étant d’accroître notre compréhension du monde, la validité d’un modèle repose non seulement sur son adéquation aux observations empiriques, mais aussi sur sa capacité à extrapoler à des situations ou des données au-delà de celles initialement décrites dans le modèle. On peut considérer cela comme la différenciation entre les prédictions qualitatives et quantitatives. On peut également soutenir qu’un modèle n’a aucune valeur s’il n’apporte pas un éclairage qui va au-delà de ce que l’on sait déjà par l’investigation directe du phénomène étudié.

Un exemple d’une telle critique est l’argument selon lequel les modèles mathématiques de la théorie de la recherche optimale de nourriture n’offrent pas un éclairage qui va au-delà des conclusions de bon sens de l’évolution et d’autres principes de base de l’écologie.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *