Mathematisches Modell
In Wirtschaft und Technik können mathematische Modelle verwendet werden, um einen bestimmten Output zu maximieren. Das betrachtete System erfordert bestimmte Eingaben. Das System, das die Eingaben mit den Ausgaben verbindet, hängt auch von anderen Variablen ab: Entscheidungsvariablen, Zustandsvariablen, exogenen Variablen und Zufallsvariablen.
Die Entscheidungsvariablen werden manchmal als unabhängige Variablen bezeichnet. Die Variablen sind nicht unabhängig voneinander, da die Zustandsvariablen von den Entscheidungs-, Eingabe-, Zufalls- und exogenen Variablen abhängig sind. Darüber hinaus sind die Ausgangsvariablen vom Zustand des Systems (dargestellt durch die Zustandsvariablen) abhängig.
Ziele und Einschränkungen des Systems und seiner Benutzer können als Funktionen der Ausgangsvariablen oder Zustandsvariablen dargestellt werden. Die Zielfunktionen hängen von der Perspektive des Benutzers des Modells ab. Je nach Kontext wird eine Zielfunktion auch als Leistungsindex bezeichnet, da es sich um ein Maß handelt, das für den Benutzer von Interesse ist. Obwohl es keine Begrenzung für die Anzahl der Zielfunktionen und Einschränkungen gibt, die ein Modell haben kann, wird die Verwendung oder Optimierung des Modells mit zunehmender Anzahl aufwändiger (rechnerisch).
Beispielsweise wenden Wirtschaftswissenschaftler bei der Verwendung von Input-Output-Modellen oft lineare Algebra an. Komplizierte mathematische Modelle, die viele Variablen haben, können durch die Verwendung von Vektoren konsolidiert werden, bei denen ein Symbol mehrere Variablen repräsentiert.
A-priori-InformationenBearbeiten
Mathematische Modellierungsprobleme werden oft in Black-Box- oder White-Box-Modelle eingeteilt, je nachdem, wie viel a priori Information über das System verfügbar ist. Ein Black-Box-Modell ist ein System, über das keine A-priori-Informationen verfügbar sind. Ein White-Box-Modell (auch Glass-Box oder Clear-Box genannt) ist ein System, bei dem alle notwendigen Informationen verfügbar sind. Praktisch alle Systeme liegen irgendwo zwischen den Black-Box- und White-Box-Modellen, so dass dieses Konzept nur als intuitiver Leitfaden für die Entscheidung, welcher Ansatz zu wählen ist, nützlich ist.
In der Regel ist es vorzuziehen, so viele a priori Informationen wie möglich zu verwenden, um das Modell genauer zu machen. Daher werden die White-Box-Modelle in der Regel als einfacher angesehen, denn wenn man die Informationen richtig verwendet hat, dann wird sich das Modell auch richtig verhalten. Oftmals kommen die a priori Informationen in Form von Wissen über die Art der Funktionen, die verschiedene Variablen in Beziehung setzen. Wenn wir z. B. ein Modell darüber erstellen, wie ein Medikament in einem menschlichen System wirkt, wissen wir, dass die Menge des Medikaments im Blut normalerweise eine exponentiell abfallende Funktion ist. Aber wir haben immer noch mehrere unbekannte Parameter: Wie schnell zerfällt die Medikamentenmenge, und wie groß ist die anfängliche Medikamentenmenge im Blut? Bei diesem Beispiel handelt es sich also nicht um ein vollständiges White-Box-Modell. Diese Parameter müssen auf irgendeine Weise geschätzt werden, bevor man das Modell verwenden kann.
In Black-Box-Modellen versucht man, sowohl die funktionale Form der Beziehungen zwischen den Variablen als auch die numerischen Parameter in diesen Funktionen zu schätzen. Mit Hilfe von a priori Informationen könnte man z.B. einen Satz von Funktionen erhalten, die das System wahrscheinlich adäquat beschreiben können. Wenn es keine A-priori-Informationen gibt, würden wir versuchen, so allgemeine Funktionen wie möglich zu verwenden, um alle verschiedenen Modelle abzudecken. Ein häufig verwendeter Ansatz für Black-Box-Modelle sind neuronale Netze, die normalerweise keine Annahmen über die eingehenden Daten machen. Alternativ können die NARMAX-Algorithmen (Nonlinear AutoRegressive Moving Average model with eXogenous inputs), die im Rahmen der nichtlinearen Systemidentifikation entwickelt wurden, verwendet werden, um die Modellterme auszuwählen, die Modellstruktur zu bestimmen und die unbekannten Parameter in Gegenwart von korreliertem und nichtlinearem Rauschen zu schätzen. Der Vorteil von NARMAX-Modellen im Vergleich zu neuronalen Netzen ist, dass NARMAX Modelle erzeugt, die aufgeschrieben und mit dem zugrundeliegenden Prozess in Beziehung gesetzt werden können, während neuronale Netze eine Annäherung erzeugen, die undurchsichtig ist.
Subjektive InformationenBearbeiten
Manchmal ist es sinnvoll, subjektive Informationen in ein mathematisches Modell einzubauen. Dies kann auf der Grundlage von Intuition, Erfahrung oder Expertenmeinung geschehen, oder auf der Grundlage der Bequemlichkeit der mathematischen Form. Die Bayes’sche Statistik bietet einen theoretischen Rahmen, um solche Subjektivität in eine rigorose Analyse einzubeziehen: Wir spezifizieren eine vorherige Wahrscheinlichkeitsverteilung (die subjektiv sein kann) und aktualisieren diese Verteilung dann auf der Grundlage empirischer Daten.
Ein Beispiel dafür, wann ein solcher Ansatz notwendig ist, ist eine Situation, in der ein Experimentator eine Münze leicht verbiegt und sie einmal wirft, wobei er aufzeichnet, ob sie Kopf ergibt, und dann die Aufgabe bekommt, die Wahrscheinlichkeit vorherzusagen, dass der nächste Wurf Kopf ergibt. Nach dem Biegen der Münze ist die wahre Wahrscheinlichkeit, dass die Münze Kopf ergibt, nicht bekannt; der Experimentator müsste also eine Entscheidung darüber treffen (vielleicht durch Betrachtung der Form der Münze), welche Prioritätsverteilung er verwenden soll. Die Einbeziehung solcher subjektiven Informationen könnte wichtig sein, um eine genaue Schätzung der Wahrscheinlichkeit zu erhalten.
KomplexitätBearbeiten
Im Allgemeinen beinhaltet die Modellkomplexität einen Kompromiss zwischen Einfachheit und Genauigkeit des Modells. Occams Rasiermesser ist ein Prinzip, das besonders für die Modellierung relevant ist. Die Grundidee ist, dass unter Modellen mit ungefähr gleicher Vorhersagekraft das einfachste Modell das wünschenswerteste ist. Während zusätzliche Komplexität in der Regel den Realismus eines Modells verbessert, kann sie das Modell schwer verständlich und analysierbar machen und auch Berechnungsprobleme aufwerfen, einschließlich numerischer Instabilität. Thomas Kuhn argumentiert, dass Erklärungen mit fortschreitender Wissenschaft dazu neigen, komplexer zu werden, bevor ein Paradigmenwechsel eine radikale Vereinfachung bietet.
Beim Modellieren des Fluges eines Flugzeugs könnten wir zum Beispiel jedes mechanische Teil des Flugzeugs in unser Modell einbetten und würden so ein nahezu White-Box-Modell des Systems erhalten. Allerdings würden die Rechenkosten für das Hinzufügen einer so großen Menge an Details die Verwendung eines solchen Modells effektiv verhindern. Außerdem würde die Unsicherheit durch ein zu komplexes System zunehmen, da jedes einzelne Teil einen gewissen Anteil an Varianz in das Modell einbringt. Daher ist es normalerweise angebracht, einige Näherungen vorzunehmen, um das Modell auf eine sinnvolle Größe zu reduzieren. Ingenieure können oft einige Näherungen in Kauf nehmen, um ein robusteres und einfacheres Modell zu erhalten. Zum Beispiel ist die klassische Mechanik von Newton ein approximiertes Modell der realen Welt. Dennoch ist das Newtonsche Modell für die meisten alltäglichen Situationen völlig ausreichend, d. h. solange die Teilchengeschwindigkeiten weit unter der Lichtgeschwindigkeit liegen und wir nur Makroteilchen untersuchen.
Beachten Sie, dass eine bessere Genauigkeit nicht unbedingt ein besseres Modell bedeutet. Statistische Modelle sind anfällig für Overfitting, was bedeutet, dass ein Modell zu sehr an die Daten angepasst wurde und es seine Fähigkeit verloren hat, auf neue Ereignisse zu verallgemeinern, die vorher nicht beobachtet wurden.
Training und Tuning
Jedes Modell, das kein reines White-Box-Modell ist, enthält einige Parameter, die verwendet werden können, um das Modell an das System anzupassen, das es beschreiben soll. Wenn die Modellierung durch ein künstliches neuronales Netz oder anderes maschinelles Lernen erfolgt, wird die Optimierung der Parameter als Training bezeichnet, während die Optimierung der Hyperparameter des Modells als Tuning bezeichnet wird und oft Kreuzvalidierung verwendet wird. Bei der konventionelleren Modellierung durch explizit vorgegebene mathematische Funktionen werden die Parameter oft durch Kurvenanpassung bestimmt.
Modellbewertung
Ein entscheidender Teil des Modellierungsprozesses ist die Bewertung, ob ein gegebenes mathematisches Modell ein System genau beschreibt oder nicht. Diese Frage kann schwierig zu beantworten sein, da sie mehrere verschiedene Arten der Bewertung beinhaltet.
Anpassung an empirische DatenBearbeiten
Gemeinsam ist der einfachste Teil der Modellbewertung die Überprüfung, ob ein Modell zu experimentellen Messungen oder anderen empirischen Daten passt. Bei Modellen mit Parametern besteht ein üblicher Ansatz zum Testen dieser Anpassung darin, die Daten in zwei disjunkte Teilmengen aufzuteilen: Trainingsdaten und Verifikationsdaten. Die Trainingsdaten werden verwendet, um die Modellparameter zu schätzen. Ein genaues Modell stimmt mit den Verifizierungsdaten überein, auch wenn diese Daten nicht zur Festlegung der Modellparameter verwendet wurden. Diese Praxis wird in der Statistik als Kreuzvalidierung bezeichnet.
Die Definition einer Metrik zur Messung der Abstände zwischen beobachteten und vorhergesagten Daten ist ein nützliches Werkzeug zur Beurteilung der Modellanpassung. In der Statistik, der Entscheidungstheorie und einigen ökonomischen Modellen spielt eine Verlustfunktion eine ähnliche Rolle.
Während es recht einfach ist, die Angemessenheit von Parametern zu testen, kann es schwieriger sein, die Gültigkeit der allgemeinen mathematischen Form eines Modells zu prüfen. Im Allgemeinen wurden mehr mathematische Werkzeuge entwickelt, um die Passung von statistischen Modellen zu testen als von Modellen mit Differentialgleichungen. Werkzeuge aus der nichtparametrischen Statistik können manchmal verwendet werden, um zu bewerten, wie gut die Daten zu einer bekannten Verteilung passen, oder um ein allgemeines Modell zu erstellen, das nur minimale Annahmen über die mathematische Form des Modells macht.
Geltungsbereich des Modells
Die Bewertung des Geltungsbereichs eines Modells, d. h. die Bestimmung, auf welche Situationen das Modell anwendbar ist, kann weniger einfach sein. Wenn das Modell auf der Grundlage eines Datensatzes konstruiert wurde, muss man bestimmen, für welche Systeme oder Situationen die bekannten Daten ein „typischer“ Datensatz sind.
Die Frage, ob das Modell die Eigenschaften des Systems zwischen den Datenpunkten gut beschreibt, wird Interpolation genannt, und die gleiche Frage für Ereignisse oder Datenpunkte außerhalb der beobachteten Daten wird Extrapolation genannt.
Als Beispiel für die typischen Einschränkungen des Geltungsbereichs eines Modells können wir bei der Bewertung der Newtonschen klassischen Mechanik anmerken, dass Newton seine Messungen ohne fortschrittliche Geräte durchführte, so dass er die Eigenschaften von Teilchen, die sich mit Geschwindigkeiten nahe der Lichtgeschwindigkeit bewegen, nicht messen konnte. Ebenso hat er nicht die Bewegungen von Molekülen und anderen kleinen Teilchen gemessen, sondern nur Makroteilchen. Es ist daher nicht überraschend, dass sein Modell nicht gut in diese Bereiche extrapoliert werden kann, obwohl sein Modell für die Physik des gewöhnlichen Lebens völlig ausreichend ist.
Philosophische Überlegungen
Viele Arten der Modellierung beinhalten implizit Behauptungen über Kausalität. Dies trifft gewöhnlich (aber nicht immer) auf Modelle zu, die Differentialgleichungen beinhalten. Da der Zweck der Modellierung darin besteht, unser Verständnis der Welt zu verbessern, beruht die Gültigkeit eines Modells nicht nur auf seiner Übereinstimmung mit empirischen Beobachtungen, sondern auch auf seiner Fähigkeit, auf Situationen oder Daten jenseits der ursprünglich im Modell beschriebenen zu extrapolieren. Man kann sich dies als die Unterscheidung zwischen qualitativen und quantitativen Vorhersagen vorstellen. Man kann auch argumentieren, dass ein Modell wertlos ist, wenn es keine Erkenntnisse liefert, die über das hinausgehen, was bereits aus der direkten Untersuchung des untersuchten Phänomens bekannt ist.
Ein Beispiel für eine solche Kritik ist das Argument, dass die mathematischen Modelle der Theorie der optimalen Nahrungssuche keine Erkenntnisse liefern, die über den gesunden Menschenverstand hinausgehen, der aus der Evolution und anderen Grundprinzipien der Ökologie folgt.