0% fanden dieses Dokument nützlich (0 Abstimmungen)
72 Ansichten263 Seiten

Simulationstechnikskript AVT-Teil

simulation-AVT

Hochgeladen von

apoptosistoxin4869de
Copyright
© © All Rights Reserved
Wir nehmen die Rechte an Inhalten ernst. Wenn Sie vermuten, dass dies Ihr Inhalt ist, beanspruchen Sie ihn hier.
Verfügbare Formate
Als PDF, TXT herunterladen oder online auf Scribd lesen
0% fanden dieses Dokument nützlich (0 Abstimmungen)
72 Ansichten263 Seiten

Simulationstechnikskript AVT-Teil

simulation-AVT

Hochgeladen von

apoptosistoxin4869de
Copyright
© © All Rights Reserved
Wir nehmen die Rechte an Inhalten ernst. Wenn Sie vermuten, dass dies Ihr Inhalt ist, beanspruchen Sie ihn hier.
Verfügbare Formate
Als PDF, TXT herunterladen oder online auf Scribd lesen

Notizen zur Lehrveranstaltung

Simulationstechnik

Aachener Verfahrenstechnik - Prozesstechnik


Wolfgang Marquardt und das Simulationstechnik-Team
überarbeitet von Alexander Mitsos und dem Simulationstechnik-Team

Version 0.4
Copyright: Wolfgang Marquardt
2013 (überarbeitete Version 13. März 2015)

RWTH Aachen · AVT.Prozesstechnik · Prof. Dr.-Ing Wolfgang Marquardt


© Copyright: 2013 by Wolfgang Marquardt

Aachener Verfahrenstechnik - Prozesstechnik

RWTH Aachen University

Templergraben 55

D - 52056 Aachen Germany

Tel.: +49 (0) 241 - 80-94668

Fax: +49 (0) 241 - 80-92326

E-Mail: [email protected]

WWW: http://www.avt.rwth-aachen.de

Dieses Skript ist urheberrechtlich geschützt und darf nur zur Benutzung im Rahmen der Vorlesung „Simulationstechnik“
im BSc-Studiengang Maschinenbau bzw. Computational Engineering Science —nachfolgend nur als „Simulationstechnik“
bezeichnet— an der RWTH Aachen kopiert werden. Jede weitergehende Nutzung bedarf der ausdrücklichen schriftlichen
Genehmigung. In diesem Skript werden Materialien anderer Autoren zu Ausbildungszwecken verwendet. Dies impliziert
nicht, dass die Materialien frei von Copyright sind. Dieses Skript zur Vorlesung „Simulationstechnik“ wurde nach bestem
Wissen erstellt. Jedoch kann keine Garantie für Richtigkeit der gemachten Angaben sowie Freiheit von Tippfehlern
übernommen werden. Der Stoffumfang der Prüfungen im Fach „Simulationstechnik“ richtet sich nach den Darstellungen
in Vorlesungen und Übungen, nicht nach diesem Skript.

2
Vorwort

Diese Notizen zur Vorlesung „Simulationstechnik“ fassen die im ersten Teil der Vorle-
sung behandelten Stoffgebiete zusammen.
Die Darstellung orientiert sich an den großen Themenfeldern der Vorlesung. Aus di-
daktischen Gründen stellt die Vorlesung diese Themen jedoch in einer etwas anderen
Reihenfolge dar als dieses Skript. Es soll als Referenz dienen und das Nacharbeiten
wichtiger theoretischer Stoffgebiete erleichtern. Die in der Prüfung gestellten Aufgaben
orientieren sich jedoch am Stoff der Vorlesung, der Vortragsübung und des Labors, und
nicht an diesem Skript.
Die Notizen zur Vorlesung werden kontinuierlich weiterentwickelt und verbessert, um
schließlich zu einer lehrbuchartigen Darstellung des in der Lehrveranstaltung vermit-
telten Stoffes zu kommen. Jedweder Vorschlag zur Ergänzung, Änderung oder Verbes-
serung der Darstellung der Notizen zur Vorlesung ist willkommen. Bitte reichen Sie
Ihre Vorschläge per E-Mail an [email protected] ein. Jeder Hinweis wird
geprüft, Ihre E-Mail wird auf jeden Fall beantwortet.
Diese Notizen zur Vorlesung wurden gemeinschaftlich von Martin Behrendt, Danielle
Diaz Dussan, David Elixmann, Ralf Hannemann, Matthias Johannink, Nimet Keri-
moglu, Wolfgang Marquardt, Alexander Mitsos, Hans Pirnay, Moritz Schmitz, René
Schneider, Olga Walz, Jörn Viell, Anna Voll, Michael Wiedau und Inga Wolf erstellt.
An der Ausarbeitung der Lehrveranstaltung waren außerdem Olaf Kahrs, Tom Quaiser,
Reinout Romijn, Holger Scheu und Maxim Stuckert beteiligt.
Für Inhalt und dessen Präsentation in der Lehrveranstaltung und in diesen Notizen
zur Vorlesung, insbesondere auch für die hoffentlich nicht zahlreichen fehlerhaften Dar-
stellungen und Schreibfehler sind allein die Professoren verantwortlich.

3
4
Inhaltsverzeichnis

1 Einführung 9
1.1 Was ist Simulation? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2 Wozu braucht man Simulation? . . . . . . . . . . . . . . . . . . . . . . 10
1.2.1 Offline- und Online-Aufgabenstellungen . . . . . . . . . . . . . . 11
1.3 Der Simulationsablauf . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4 Systemtheorie als Grundlage der Modellbildung . . . . . . . . . . . . . 14
1.5 Systemtheorie im Überblick . . . . . . . . . . . . . . . . . . . . . . . . 14
1.6 Systemkonzept . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.6.1 Bausteine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.6.2 Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.6.3 Verhalten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.6.4 Gesetzmäßigkeiten . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.6.5 Systembegrenzung . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.6.6 Aggregation und Dekomposition . . . . . . . . . . . . . . . . . . 18
1.6.7 Zweck und Funktion . . . . . . . . . . . . . . . . . . . . . . . . 20
1.6.8 Aufbau- und Ablaufsysteme . . . . . . . . . . . . . . . . . . . . 20
1.7 Systemdarstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.8 Modelle als spezielle Systeme . . . . . . . . . . . . . . . . . . . . . . . 22
1.9 Mathematische Modelle . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.10 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

2 Das zeitkontinuierliche Zustandsraumkonzept 29


2.1 Definition der Zustandsdarstellung . . . . . . . . . . . . . . . . . . . . 29
2.2 Klassifizierung dynamischer Systeme . . . . . . . . . . . . . . . . . . . 32
2.2.1 Nichtlineare zeitinvariante Systeme . . . . . . . . . . . . . . . . 32
2.2.2 Nichtlineare zeitvariante Systeme . . . . . . . . . . . . . . . . . 35
2.2.3 Lineare zeitinvariante Systeme . . . . . . . . . . . . . . . . . . . 37
2.2.4 Lineare zeitvariante Systeme . . . . . . . . . . . . . . . . . . . . 41
2.3 Visualisierung des Systemverhaltens . . . . . . . . . . . . . . . . . . . . 43
2.4 Stationäre Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.5 Ruhelagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.6 Lösbarkeit und Freiheitsgrade . . . . . . . . . . . . . . . . . . . . . . . 50

3 Kontinuierliche lineare Systeme 55

5
6 INHALTSVERZEICHNIS

3.1 Lösung autonomer Systeme . . . . . . . . . . . . . . . . . . . . . . . . 55


3.1.1 Matrix-Exponentialfunktion: Definition und Rechenregeln . . . . 56
3.1.2 Die Jordan-Normalform . . . . . . . . . . . . . . . . . . . . . . 57
3.2 Lösung nicht-autonomer Systeme . . . . . . . . . . . . . . . . . . . . . 71
3.3 Ruhelagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
3.3.1 Existenz und Eindeutigkeit der Ruhelagen . . . . . . . . . . . . 75
3.3.2 Lineare Systeme mit integrierendem Verhalten . . . . . . . . . . 77
3.4 Stabilität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
3.4.1 Allgemeine Definition . . . . . . . . . . . . . . . . . . . . . . . . 78
3.4.2 Stabilität linearer autonomer Systeme . . . . . . . . . . . . . . . 80
3.4.3 Stabilität nicht-autonomer linearer Systeme . . . . . . . . . . . 83
3.4.4 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . 84

4 Kontinuierliche nichtlineare Systeme 89


4.1 Lösbarkeit nichtlinearer Systeme . . . . . . . . . . . . . . . . . . . . . . 90
4.2 Ruhelagen nichtlinearer Systeme . . . . . . . . . . . . . . . . . . . . . . 91
4.3 Stabilität nichtlinearer Systeme . . . . . . . . . . . . . . . . . . . . . . 95
4.3.1 Experimentelle Stabilitätsanalyse . . . . . . . . . . . . . . . . . 95
4.3.2 Stabilitätsanalyse nach Ljapunow . . . . . . . . . . . . . . . . . 97
4.3.3 Stabilitätsanalyse des linearisierten Systems . . . . . . . . . . . 102
4.4 Dynamisches Verhalten nichtlinearer Systeme . . . . . . . . . . . . . . 106
4.4.1 Attraktoren und Repelloren . . . . . . . . . . . . . . . . . . . . 106
4.4.2 Bifurkation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116

5 Differential-algebraische Systeme 123


5.1 Formale Darstellung von DA-Systemen . . . . . . . . . . . . . . . . . . 124
5.2 Überführung in die Zustandsdarstellung . . . . . . . . . . . . . . . . . . 125
5.2.1 Direkte Überführung durch Substitution . . . . . . . . . . . . . 125
5.2.2 Der differentielle Index eines DA-Systems . . . . . . . . . . . . . 127
5.2.3 Auswahl von Gleichungen zur numerischen Lösung . . . . . . . 130
5.3 Lösbarkeit und Stabilität . . . . . . . . . . . . . . . . . . . . . . . . . . 133
5.3.1 Lösbarkeit linearer DA-Systeme . . . . . . . . . . . . . . . . . . 133
5.3.2 Lösbarkeit und Ruhelagen nichtlinearer DA-Systeme . . . . . . 134
5.4 Abschließende Bemerkungen . . . . . . . . . . . . . . . . . . . . . . . . 136

6 Systeme mit diskretem Verhalten 141


6.1 Abtastung und Rekonstruktion . . . . . . . . . . . . . . . . . . . . . . 142
6.2 Zeitdiskrete Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
6.2.1 Lineare zeitdiskrete Systeme . . . . . . . . . . . . . . . . . . . . 143
6.2.2 Nichtlineare zeitdiskrete Systeme . . . . . . . . . . . . . . . . . 145
6.3 Wertdiskrete Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
6.4 Ereignisdiskrete Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . 147
6.4.1 Petri-Netze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
INHALTSVERZEICHNIS 7

6.4.2 Endliche Automaten . . . . . . . . . . . . . . . . . . . . . . . . 158


6.4.3 Überblick ereignisdiskreter Systeme . . . . . . . . . . . . . . . . 161
6.5 Diskret-kontinuierliche Systeme . . . . . . . . . . . . . . . . . . . . . . 162

7 Modellierung strukturierter Systeme 171


7.1 Strukturierung als Teil des Modellierungsprozesses . . . . . . . . . . . . 172
7.2 Speichersysteme und Verknüpfungssysteme . . . . . . . . . . . . . . . . 176
7.3 Schnittgrößen und Schnittstellen . . . . . . . . . . . . . . . . . . . . . . 177
7.4 Potential- und Flussvariablen . . . . . . . . . . . . . . . . . . . . . . . 181
7.4.1 Elementare und komplexe Verknüpfungssysteme . . . . . . . . . 183

8 Modellierung elektrischer Systeme 187


8.1 Strukturierung komplexer elektrischer Systeme . . . . . . . . . . . . . . 187
8.2 Modellierung elektrischer Teilsysteme . . . . . . . . . . . . . . . . . . . 190
8.2.1 Bauteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
8.2.2 Netzwerke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
8.3 Aggregation zum Modell des Gesamtsystems . . . . . . . . . . . . . . . 195
8.4 Darstellung und Analyse elektrischer Systeme . . . . . . . . . . . . . . 195
8.5 Implementierung und Simulation . . . . . . . . . . . . . . . . . . . . . 196
8.6 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197

9 Modellierung mechanischer Systeme 203


9.1 Strukturierung mechanischer Systeme . . . . . . . . . . . . . . . . . . . 203
9.1.1 Zerlegung in Teilsysteme . . . . . . . . . . . . . . . . . . . . . . 204
9.1.2 Modellierung mechanischer Systeme . . . . . . . . . . . . . . . . 207
9.2 Gleichungsstruktur und Analyse . . . . . . . . . . . . . . . . . . . . . . 212
9.2.1 Freiheitsgrade und vollständige Spezifikation der Modellgleichun-
gen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
9.2.2 Differentieller Index des Modells . . . . . . . . . . . . . . . . . . 214
9.3 Implementierung und Simulation . . . . . . . . . . . . . . . . . . . . . 215

10 Modellierung thermodynamischer Systeme 219


10.1 Strukturierung thermodynamischer Systeme . . . . . . . . . . . . . . . 220
10.2 Modellierung elementarer Teilsysteme . . . . . . . . . . . . . . . . . . . 224
10.2.1 Bilanzgleichungen thermodynamischer Systeme . . . . . . . . . 224
10.2.2 Weitere Gleichungen . . . . . . . . . . . . . . . . . . . . . . . . 227
10.3 Darstellung und Analyse thermodynamischer Systeme . . . . . . . . . . 229
10.4 Implementierung und Simulation . . . . . . . . . . . . . . . . . . . . . 232

11 Parametereinfluss und Parameterschätzung 237


11.1 Simulationsgestütze Analyse . . . . . . . . . . . . . . . . . . . . . . . . 237
11.1.1 Monte-Carlo-Methoden . . . . . . . . . . . . . . . . . . . . . . . 238
11.1.2 Sensitivitätsanalyse . . . . . . . . . . . . . . . . . . . . . . . . . 239
11.2 Validierung und Parameteridentifikation . . . . . . . . . . . . . . . . . 241
8 INHALTSVERZEICHNIS

A Codebeispiele 247
A.1 Verknüpfung von zwei Modelica-Modellen mit und ohne Konnektoren . 247
A.2 Modell einer Brunnenkaskade . . . . . . . . . . . . . . . . . . . . . . . 248
A.3 Feder-Dämpfer-Modell einer Radaufhängung . . . . . . . . . . . . . . . 249
A.4 Springender Ball in Modelica . . . . . . . . . . . . . . . . . . . . . . . 250

Glossar 253

Stichwortverzeichnis 258
Kapitel 1

Einführung

1.1 Was ist Simulation?


In der Literatur finden sich verschiedene Definitionen. Zum Beispiel die Definition nach
Shannon (1975) oder nach der VDI-Richtlinie 3633 Blatt 1 (2000).

Simulation: Definition nach (Shannon 1975)

Simulation is the process of designing a model of a real system and conduc-


ting experiments with this model for the purpose either of understanding
the behavior of the system and its underlying causes or of evaluating va-
rious designs of an artificial system or strategies for the operation of the
system.

Simulation: Definition nach VDI-Richtlinie 3633

Simulation ist ein Verfahren zur Nachbildung eines Systems mit seinen dy-
namischen Prozessen in einem experimentierbaren Modell, um zu Erkennt-
nissen zu gelangen, die auf die Wirklichkeit übertragbar sind. Im weiteren
Sinne wird unter Simulation das Vorbereiten, Durchführen und Auswerten
gezielter Experimente mit einem Simulationsmodell verstanden. Mit Hil-
fe der Simulation kann das zeitliche Ablaufverhalten komplexer Systeme
untersucht werden (Simulationsmethode).

Es geht also darum, ein Modell eines realen Systems zu entwerfen, um mit diesem Mo-
dell virtuelle Experimente durchzuführen. Diese Vorgehensweise verfolgt also das Ziel,
das Verhalten des Systems zu verstehen und das Design und die Betriebsstrategien zu
bewerten. Es sei angemerkt, dass wir in dieser Vorlesung nur numerische Simulationen
betrachten werden.

9
10 KAPITEL 1. EINFÜHRUNG

Verbesserung der Modelle

Bewerte
Kunden- Vorläufiger System-Entwurf mit
die
anforderung System-Entwurf Hilfe von Modellen
Modelle

System-
Entwerfe, produziere
Entwurfsprozess System-
und verifiziere das
angewandt auf eigenschaften
System
Prototypen

Abbildung 1.1: Ablaufmodell eines Ingenieurs-Projekts, nach Bahill (1998)

1.2 Wozu braucht man Simulation?

In einer immer komplexeren Welt brauchen wir manchmal nicht nur neue Antworten
auf alte Fragen, sondern auch Antworten auf ungeklärte neue Fragen. Das bedeutet,
wir wollen Simulation verwenden, um komplexe Probleme greifbar zu machen und sie
einer Lösung zuzuführen.
Simulation ist heute Teil eines jeden Projektes in der industriellen Praxis. In Abbil-
dung 1.1 sieht man das Ablaufmodell nach Bahill und Gissing (1998), das Entwicklungs-
und Entwurfsprozesse ganz allgemein für verschiedenste Systeme (oder Produkte) dar-
stellen kann. Wenn man sich den Entwurfsprozess anschaut, dann erkennt man die
verschiedenen Stufen, angefangen mit den Kundenanforderungen bis hin zum Entwurf
des Systems mit den gewünschten Systemeigenschaften. Im rechten, oberen Teil des
Schemas erkennt man einen Zwischenschritt, in dem der Entwurf nicht real, sondern
mit Hilfe eines Modells in der virtuellen Welt bewertet wird. Zunächst wird also ein vor-
läufiger Entwurf des Systems (bzw. Produktes) entwickelt. Dieser erste Entwurf wird
dann virtuell im Rechner simuliert, um eine Bewertung des Entwurfs zu ermöglichen.
Wie wichtig die Simulation in den einzelnen Projektphasen ist, sieht man in Abbildung
1.2 (Bahill und Gissing 1998). In den Spalten der Matrix sieht man die verschiedenen
Arbeitsschritte: Den vorläufigen Entwurf, das Modell, den Prototypen und den wirkli-
chen Entwurf. Die Zeilen der Matrix zeigen die einzelnen Aktivitäten im Entwicklungs-
prozess: Anforderungsdefinition, Alternativengenerierung, Funktionsdefinition, die De-
finition der Teilsysteme und Schnittstellen, die Entwurfserfindung, -bewertung und
-verbesserung bis hin zum endgültigen Produkt. Man kann erkennen, dass die Simula-
tion in fast allen Schritten, bis auf die Anforderungsformulierung und die Funktions-
1.2. WOZU BRAUCHT MAN SIMULATION? 11

Prototypen
Entwurf
Vorläufiger

Modelle

Entwurf
Wirklicher
Formuliere Anforderungen

Entwickle Alternativen

Definiere Funktionen

Definiere Teilsysteme
& Schnittstellen
Erfinde Entwürfe

Bewerte

Verbessere

Abbildung 1.2: Aufwand in den einzelne Projektphasen, nach Bahill (1998); Größe der
Kreise entspricht dem Arbeitsaufwand.

definition, eine große Rolle spielt. Die Simulation ist eine Kerntechnologie, um Ent-
wicklungsprozesse im Maschinenbau, in der Luft- und Raumfahrttechnik und in der
Verfahrenstechnik zu unterstützen.

1.2.1 Offline- und Online-Aufgabenstellungen

Es gibt 2 Klassen von Aufgabenstellungen, die wir unterscheiden sollten: offline und
online.
Mit Offline-Anwendungen sind alle Anwendungen gemeint, bei denen die Simulation
weder mit Daten aus dem laufenden Prozess abgeglichen wird noch das simulierte Sys-
tem beeinflusst wird. Hierunter fallen alle Aufgabenstellungen zum Entwurf von Sys-
temen, sowie die Vorhersage des Verhaltens bereits existierender technischer Systeme,
z.B. Fahrzeuge, Flugzeuge oder Kraftwerke.
Online-Anwendungen hingegen sind solche Anwendungen, bei denen die Simulation
entweder in das simulierte System eingreift oder Daten mit dem laufenden Prozess ab-
gleicht. Dies ist der Fall, wenn die Simulation beispielsweise in der Steuerungssoftware
des Systems eingebettet ist (modellprädiktive Regelung), oder wenn aktuelle Daten
12 KAPITEL 1. EINFÜHRUNG

Model-
System + Problem Ergebn.
lieren & Simulations- Simu- Lösung des
Problem- ver- interpre-
analy- modell lieren Problems
stellung stehen tieren
sieren

Abbildung 1.3: Der Simulationsablauf

aus dem laufenden Prozess dazu genutzt werden, um eine Vorhersage des aktuellen
Betriebsverhaltens zu ermöglichen.

1.3 Der Simulationsablauf


Abbildung 1.3 zeigt schematisch die Arbeitsschritte, die zur Lösung einer Fragestellung
durch Simulation führen. Im Verlauf der Vorlesung wird dieses Ablaufschema dazu
dienen, die Themen der einzelnen Vorlesungseinheiten in den Gesamtzusammenhang -
die Lösung technischer und wissenschaftlicher Probleme - einzuordnen.

System und Problemstellung Zunächst interessiert uns das System, welches wir
betrachten. Systeme können zum Beispiel mechanisch oder elektrisch sein. Es
kann sich um Prozess- oder Logistik- Systeme handeln. Es gibt hier keinerlei
Einschränkungen bezüglich der Art des Systems oder dessen technischer Reali-
sierung.
Die Problemstellung bestimmt, welche Aspekte des Systems für die Untersuchung
von Interesse sind. Im einfachsten Fall kann die Problemstellung sein, dass die
Funktion des Systems verstanden werden soll – die Simulation soll also eingesetzt
werden, um komplexe Prozesse nachzubilden, deren Zusammenwirken zum beob-
achteten Verhalten noch unklar ist. Alternativ kann die Problemstellung auch
sein, ein neues System zu entwickeln – in diesem Fall sollen bekannte Teilsysteme
zusammengefügt werden, um ein gewünschtes Verhalten zu bewirken. Die Simu-
lation soll dabei Aufschluss über die vorteilhafteste Anordnung der Teilsysteme
geben.
Problem verstehen Hier geht es darum, die Struktur des Systems zu erkennen,
d.h. die einzelnen Komponenten des Systems zu identifizieren. Die kausalen Zu-
sammenhänge müssen, ebenso wie die relevanten physikalischen Prinzipien, ver-
standen werden.
Modellieren und analysieren Der nächste Schritt ist das Modellieren und Analysie-
ren. Hierzu müssen wir die reale Welt verlassen und den Übergang in die virtuelle
Welt absolvieren. Indem das System durch mathematisch-physikalische Gleichun-
gen beschrieben wird, wird es vereinfacht und abstrahiert, und für den Rechner
lösbar. Insgesamt lässt sich der Schritt Modellieren und Analysieren in vier Teil-
schritte gliedern, die in Abbildung 1.4 dargestellt sind:
1.3. DER SIMULATIONSABLAUF 13

Abbildung 1.4: Modellieren und analysieren

1. Mathematisches Modell erstellen. Mit diesem Schritt ist gemeint, dass der
Modellierer die mathematischen Gleichungen aufstellt, welche diejenigen
physikalischen Gesetzmäßigkeiten repräsentieren, die das Verhalten des rea-
len Systems bestimmen. Die Menge aller Gleichungen bildet das mathema-
tische Modell.
2. Mathematisches Modell analysieren. Das mathematische Modell aus dem vo-
rigen Teilschritt wird auf bestimmte, für die Simulation wichtige Eigenschaf-
ten hin untersucht. So ist z.B. festzustellen, ob das Modell so formuliert ist,
dass eine Lösung existieren kann. Außerdem können bereits Eigenschaften
der Lösung der Modellgleichungen ermittelt werden, ohne eine Simulation
durchführen zu müssen. Als Beispiele seien Ruhelagen und deren Stabili-
tätsverhalten genannt.
3. Simulationsmodell implementieren. Hier geht es darum, das mathematische
Modell in eine computer-auswertbare Form zu bringen. Dazu muss das ma-
thematische Modell in einer Modellierungssprache wie Modelica oder Mat-
lab implementiert werden. Modellierungssprachen sind spezialisierte höhere
Programmiersprachen, die für die Beschreibung bestimmter mathematischer
Modelle sowie die Konfiguration der Lösungsalgorithmen verwendet werden.
Art und Eigenschaften des mathematischen Modells legen meistens die Ver-
wendung einer oder mehrerer bestimmter Modellierungssprachen und der
zugehörigen Software (Entwicklungsumgebung und Compiler) nahe.
4. Simulationsmodell validieren. Die ersten Versionen eines Modells enthalten
in der Regel Programmierfehler. In einem ersten Schritt, der Verifikation,
wird durch Simulation sichergestellt, dass die erzielten Ergebnisse plausibel
14 KAPITEL 1. EINFÜHRUNG

sind. Die Validierung des Simulationsmodells ist schließlich der Nachweis,


dass die Simulation die Realität mit hinreichender Genauigkeit beschreibt.
Simulationsmodell Das „fertige“ Simulationsmodell umfasst die Beschreibung des
mathematischen Modells in der gewählten Modelliersprache, sowie alle Daten, die
zur Eingabe und anschließenden Lösung des Modells in einer Simulationssoftware
erforderlich sind.
Simulieren Als „Simulation“, „Simulation des Modells“ oder „Lösung des Modells“
wird die Lösung des mathematischen Modells mit der gewählten Simulationssoft-
ware bezeichnet. Ergebnis einer erfolgreichen Simulation sind Zahlenwerte ggf.
als Funktionen der Zeit für sämtliche Größen des Modells.
Ergebnisse interpretieren Die Auswertung von Simulationsergebnissen kann qua-
litativ, d.h. durch grafischen Vergleich von Werten und durch Beurteilung von
Form und Verlauf bestimmter Werte oder quantitativ, d.h. durch die Berechnung
von relevanten Kennzahlen aus den Daten der Simulation erfolgen.
Lösung des Problems Mit Hilfe der interpretierten Ergebnisse kann das Ausgangs-
problem gelöst werden.

1.4 Systemtheorie als Grundlage der Modellbildung


Eine systematische Grundlage zur Entwicklung mathematischer Modelle, die sowohl
eine planbare Qualität des resultierenden Modells als auch die Nachvollziehbarkeit
des Modellierungsvorganges ermöglicht, bilden die Konzepte und Methoden der Sys-
temtheorie (Bunge 1977). Damit können bewertbare und wiederverwendbare Model-
le erstellt werden, was als eine wesentliche Voraussetzung für einen wirtschaftlichen
Einsatz von Modellen zur Beantwortung ingenieurtechnischer Fragestellungen in der
industriellen Praxis anzusehen ist.
Eine vertiefende Darstellung der Systemtheorie ist den Monographien von Bunge (1977,
1979), Patzak (1982), Klir (1985), Gigch (1991) und Bruns (1991) zu entnehmen. Ein
kurzer Überblick zu den wesentlichen Grundlagen wird nachfolgend gegeben.

1.5 Systemtheorie im Überblick


Ludwig von Bertalanffy (1901–1972), der als Vater der allgemeinen Systemtheorie gilt,
definiert diese Wissenschaft als

„. . . ein logisch-mathematisches Gebiet, dessen Aufgabe die Formulierung


und Ableitung allgemeingültiger Prinzipien ist, die auf Systeme im Allge-
meinen anwendbar sind . . . “ (zitiert nach Gigch 1991).
1.6. SYSTEMKONZEPT 15

Zielsetzung der allgemeinen Systemtheorie ist es somit, natürliche, künstliche und ab-
strakte Gebilde oder Systeme, die so unterschiedlichen Wissenschaftsgebieten wie der
Biologie, Chemie, Physik und der Medizin sowie den Sozial-, Wirtschafts- und Inge-
nieurwissenschaften zuzuordnen sind, mit einem einheitlichen methodischen Instrumen-
tarium zu behandeln.

Das Instrumentarium der allgemeinen Systemtheorie soll sowohl die Charakterisierung


als auch die Planung, Entwicklung oder Gestaltung von beliebigen Systemen unter-
stützen. Demnach kann die allgemeine Systemtheorie grundsätzlich in zwei Teilgebiete
aufgeteilt werden. Das erste Teilgebiet, das mit Systemkonzept oder auch Systemanalyse
bezeichnet wird, betrifft die Definition und Charakterisierung eines Systems zusammen
mit seinen Elementen sowie deren Eigenschaften und Wechselwirkungen untereinan-
der. Das zweite Teilgebiet, die Systementwicklung oder auch Systemsynthese, stellt die
auf dem Systemkonzept aufbauenden Problemlösungsmethoden bereit, welche für die
Planung, Entwicklung und Gestaltung von Systemen erforderlich sind. Die Systemdar-
stellung, die sich mit einer formalen Repräsentation von Systemen befasst, stellt ein
Bindeglied zwischen den beiden Teilgebieten dar.

1.6 Systemkonzept

Der Begriff des Systems wurde bisher verwendet, ohne eine Veranschaulichung zu ver-
suchen oder gar eine genaue Definition zu geben. Angesichts der angestrebten Uni-
versalität der allgemeinen Systemtheorie überrascht es nicht, dass sich in der Litera-
tur zahlreiche Definitionen finden, welche die relevanten charakterisierenden Aspekte
mit unterschiedlicher Gewichtung betonen. Stellvertretend sei hier die in DIN 19226
(Regelungs- und Steuerungstechnik) niedergelegte Definition angegeben:

Definition 1.1 (DIN 19226). Ein System . . . ist eine abgegrenzte Anordnung von auf-
einander einwirkenden Gebilden. Solche Gebilde können sowohl Gegenstände als auch
Denkmethoden und deren Ergebnisse . . . sein. Diese Anordnung wird durch eine Hüll-
fläche von ihrer Umgebung abgegrenzt oder abgegrenzt gedacht. Durch die Hüllfläche
werden Verbindungen des Systems mit seiner Umgebung geschnitten. Die mit diesen
Verbindungen übertragenen Eigenschaften und Zustände sind die Größen, deren Be-
ziehungen untereinander das dem System eigentümliche Verhalten beschreiben. Durch
zweckmäßiges Zusammenfügen und Unterteilen von solchen Systemen können größere
und kleinere Systeme entstehen.

Die in dieser Definition auftretenden Begriffe werden nun zur weiteren Charakterisie-
rung des Systemkonzeptes detailliert dargestellt.
16 KAPITEL 1. EINFÜHRUNG

1.6.1 Bausteine
Die Bausteine (Komponenten, Teile, Gebilde usw.) eines Systems können entweder
Konzepte, Objekte oder Subjekte sein. Die Art der Bausteine charakterisiert das System
selbst.
Konzepte sind abstrakte Systembausteine. Sie definieren ein konzeptionelles oder ab-
straktes System. Beispiele hierfür sind die natürliche Sprache, die Programmierspra-
chen, Zahlensysteme, mathematische Gleichungssysteme oder technische Regelwerke.
Objekte sind materielle, unbelebte Systembausteine, mit denen künstliche oder natürli-
che reale Systeme aufgebaut werden. Als Beispiele seien hier ein Gebäude, ein Fahrzeug,
eine Destillationskolonne oder ein Computer genannt.
Subjekte bilden natürliche reale Systeme, die aber im Gegensatz zum vorigen Fall aus
lebenden Individuen aufgebaut sind. Als Beispiele denke man an die Bedienungsmann-
schaft einer Chemieanlage, an ein Eishockeyteam, an alle Bewohner einer Stadt oder
an alle Hörer einer Vorlesung.
Ein System wird schließlich als Hybridsystem bezeichnet, wenn es aus Bausteinen un-
terschiedlichen Typs besteht, die miteinander in Wechselwirkung stehen. Als Beispiel
sei eine im Betrieb befindliche Chemieanlage genannt. Die Apparate sind die Objekte,
die Bedienungsmannschaft die Subjekte und die zugeordneten Betriebsvorschriften die
Konzepte dieses Hybridsystems.

1.6.2 Eigenschaften
Die Eigenschaften oder Attribute geben ein dem Systembaustein zuzuordnendes qua-
litatives oder quantitatives Merkmal wieder. Jedem Attribut können ein oder mehrere
Werte eines Definitionsbereichs zugewiesen werden. Beispiele für Attribut-Werte-Paare
sind (Farbe, rot), (Temperatur, 223℃) oder (Druck, hoch). Diese Beispiele zeigen, dass
verschiedenartige Skalen zur Festlegung der Werte verwendet werden. Diese sind

1. die metrische Skala, welche die Reihenfolge und den Abstand zweier Elemente
beschreibt,
2. die ordinale Skala, auf der lediglich die Reihenfolge der Elemente angegeben wer-
den kann, und schließlich
3. die nominale Skala, bei der Elemente lediglich einer Menge zuzuordnen sind.

Detailliertere Ausführungen dazu finden sich beispielsweise bei Klir (1985).


Attribute werden zielgerichtet ausgewählt, um in einem bestimmten Kontext die we-
sentlichen Merkmale eines Systembausteins wiederzugeben. Jedes Attribut wird durch
eine Bezeichnung, den möglichen Definitionsbereich und den in einem bestimmten Fall
zugewiesenen Wert festgelegt.
1.6. SYSTEMKONZEPT 17

1.6.3 Verhalten
Der Zustand eines Systembausteins liegt durch die Werte fest, die zu einem bestimmten
Beobachtungszeitpunkt dessen Attributen zugeordnet sind. Die Menge aller durch Kom-
bination der möglichen Attributwerte definierbaren Zustände legt den Zustandsraum
fest.
Der Zustand eines Systembausteins ändert sich im Allgemeinen mit der Zeit. Die Än-
derungsgeschwindigkeit nennt man Fluss.
Das Verhalten des Systemelements wird durch die zeitliche Abfolge von Systemzu-
ständen bestimmt. Das Systemverhalten kann als geordnete Folge von Punkten im
Zustandsraum dargestellt werden. Als Beispiel denke man an den durch Druck und
Temperatur festgelegten Zustand eines Gases, das in einem beheizten Druckbehälter
eingeschlossen ist, oder aber an den Projektierungsablauf bei der Planung einer ver-
fahrenstechnischen Anlage.
Man spricht von statischen oder stationären Systemen, wenn bei der Systembeschrei-
bung nur der Fall eines verschwindenden Flusses vorgesehen ist und damit eine zeitliche
Änderung des Systemzustandes nicht erfasst werden kann. Dynamische Systeme kön-
nen dagegen einen von null verschiedenen Fluss aufweisen.

1.6.4 Gesetzmäßigkeiten
Gesetzmäßigkeiten beschreiben Abhängigkeiten, die zwischen den Werten der beschrei-
benden Attribute im Sinne eines Naturgesetzes stets gelten müssen oder die man im
Sinne einer Theorie oder eines Postulats als gültig ansieht. Sie lassen sich beispiels-
weise in Form mathematischer Gleichungen repräsentieren. Als Beispiel sei das ideale
Gasgesetz genannt, das gemäß
pV = nRT (1.1)
Druck p, Volumen V , Molmenge n und Temperatur T eines Gases über die Gaskonstan-
te R verknüpft. Häufig lassen sich auch logische Klauseln heranziehen, um beispielsweise
die Zuweisung widersprüchlicher Werte zu zwei Attributen zu unterbinden.
Gesetzmäßigkeiten schränken den Zustand und damit auch das Verhalten eines Sys-
tembausteins ein. Sie reduzieren die Größe des Zustandsraumes auf den erreichbaren
Teil. Betrachten wir die Menge n eines Gases in einem Behälter des Volumens V , dann
kann der Zustand des Gases nicht in der gesamten p-T- Ebene, sondern nur auf der
durch Gl. (1.1) definierten Kurve liegen.

1.6.5 Systembegrenzung
Da sich ein System durch eine Ansammlung von mehreren Bausteinen auszeichnet,
muss es notwendigerweise gegen die Umgebung abgegrenzt sein. Die Abgrenzung nennt
18 KAPITEL 1. EINFÜHRUNG

man Systemgrenze, ihre Wahl richtet sich nach den Absichten, die man mit der Sys-
temfestlegung verfolgt, da sich durch eine geeignete Festlegung nicht interessierende
Komponenten ausgrenzen lassen. Ferner richtet sich die Wahl der Systemgrenze aber
auch nach den Möglichkeiten des Betrachters. Ist nämlich eine vollständige Beschrei-
bung des Gegenstandsbereiches nicht möglich, wird man die nicht beschreibbaren oder
nicht beeinflussbaren Teile des Gegenstandsbereiches abgrenzen.
Die Umgebung des Systems ist zunächst all das, was nicht im System enthalten ist.
Allerdings werden nur diejenigen nicht zum System gehörenden Komponenten als Um-
gebung im engeren Sinne bezeichnet, mit denen das System in direkter Wechselwirkung
steht.
Über die Systemgrenze treten Eingangsgrößen, die von außen – also von der Umgebung
des Systems – auf das System einwirken, und Ausgangsgrößen, die aus dem System
an die Umgebung übergeben werden. Störgrößen sind spezielle Eingangsgrößen, deren
Wirken zwar bekannt, aber nicht genau beschrieben oder gar quantifiziert werden kann.
Systeme, die mit der Umgebung in Wechselwirkung treten, deren Ein- und Ausgangs-
größen also nicht verschwinden, werden als offene Systeme bezeichnet. Abgeschlossene
Systeme stehen nicht mit ihrer Umgebung in Wechselwirkung.

1.6.6 Aggregation und Dekomposition

Ein Systembaustein kann selbst ein strukturiertes System sein, welches wiederum aus
Systembausteinen besteht (vgl. Abb. 1.5). Dekomposition oder Strukturierung nennt
man den Vorgang, bei dem man ein System gegebenenfalls über mehrere Hierarchie-
ebenen hinweg in Teilsysteme und deren Wechselwirkungen zerlegt. Diese Dekompo-
sition endet bei nicht weiter zerlegbaren elementaren Systemen („irreducible wholes“,
Klir 1985). Die Festlegung dieser elementaren Systeme legt die Granularität der Sys-
tembeschreibung fest.
Wie in Abb. 1.5 dargestellt ist, lassen sich umgekehrt (Teil-)Systeme auch zu überge-
ordneten Systemen zusammenfügen. Diese Aggregation erlaubt den Aufbau komplexer
Systeme über mehrere hierarchische Stufen hinweg. Die Eigenschaften eines aus mehre-
ren Teilsystemen aggregierten Systems werden durch die Eigenschaften der beteiligten
elementaren Systeme gebildet. Darüber hinaus ergeben sich manchmal zusätzliche Ei-
genschaften durch die Aggregation. Werden beispielsweise zwei fluide Phasen beschrei-
bende Systeme aggregiert, so ist das Gesamtvolumen des Zweiphasensystems auf den
Wert des Behälters festgelegt, in dem das Zweiphasensystem eingeschlossen ist, wäh-
rend die Volumina der unabhängigen Phasen frei sind. Ein System nennt man komplex,
wenn es aus vielen Elementen unterschiedlichen Typs besteht, die in vielfältiger Weise
miteinander in Wechselwirkung stehen.
Die Wahl der Granularität und die Strukturierung eines komplexen Systems in eine
Hierarchie von Teilsystemen mit unterschiedlichem Detaillierungsgrad ist zielorientiert.
1.6. SYSTEMKONZEPT 19

Eingang Ausgang
System (baustein)

Dekomposition (Strukturierung)
Aggregation

System
(baustein)

elementares
System

Abbildung 1.5: Aggregation und Dekomposition von Systemen.

Die hierarchischen Ebenen werden gerade so eingeführt, dass bestimmte Aspekte eines
Systems offen gelegt werden und andere verborgen bleiben. Die Komplexität der Sys-
tembeschreibung auf der einen Seite und deren Mächtigkeit bei der Lösung bestimmter
Fragestellungen auf der anderen Seite werden entscheidend durch die gewählten, nicht
weiter zerlegbaren, elementaren Systeme bestimmt. Eine zu feine Granularität erhöht
den Aufwand und reduziert die Übersichtlichkeit. Daher sollte die Granularität nur so
fein wie nötig gewählt werden. Eine zu grobe Granularität dagegen limitiert die An-
wendungsmöglichkeiten der Systembeschreibung bei der Bearbeitung konkreter Aufga-
benstellungen. Es muss also stets ein Kompromiss gesucht werden, der zwischen der
Ausdrucksstärke der Systembeschreibung und des mit ihrer Verwendung verbundenen
Aufwandes abwägt.

Bisher wurde stillschweigend angenommen, dass jedes reale System vollständig in Teil-
systeme zerlegt werden kann. Dies impliziert, dass die im System ablaufenden Vorgänge
vollständig entkoppelbar sind. Offensichtlich können die Grenzen der Teilsysteme nur
in wenigen Fällen gerade so gewählt werden, dass eine vollständige Entkopplung er-
reicht wird. In den meisten Fällen hat die Entkopplung nur Näherungscharakter. Man
denke nur an die Aufteilung eines Wasserspiels in die einzelnen, durch Rohrleitungen
verknüpften Becken und Brunnen. Die Entkopplung setzt voraus, dass die Mengenströ-
me zwischen den Apparaten nicht durch die Füllstände in den Apparaten bestimmt
sind. Da die Aufteilung eines Systems in Teilsysteme gerade durchgeführt wird, um
Systementwicklung oder -analyse auf der Ebene des Teilsystems unabhängig vom Ge-
20 KAPITEL 1. EINFÜHRUNG

samtsystem vorantreiben zu können, kommt einer geeigneten Wahl der Grenzen der
Subsysteme für den Erfolg dieser Vorgehensweise größte Bedeutung zu. In vielen Fäl-
len wird man die Grenzen durch Versuch und Irrtum festlegen müssen. Eine detaillierte
Diskussion dieses Problems findet man bei Simon (1981).

1.6.7 Zweck und Funktion

Jedes (künstliche) System soll einen bestimmten Zweck oder eine bestimmte Funktion
erfüllen. Die Funktion eines Systems kann als ein Konversionsprozess angesehen wer-
den, bei dem die Eingänge des Systems in dessen Ausgänge umgesetzt werden. Der
Zweck eines Systems kann dann als erreicht angesehen werden, wenn der Konversions-
prozess im Sinne eines festzulegenden Gütemaßes eine bestimmte, vorher festgelegte
Anforderung erfüllt.
Zur Erläuterung seien verschiedene Beispiele genannt. Die Funktion einer Produkti-
onsanlage besteht in der Herstellung eines Produktes aus Ausgangsstoffen. Sie erfüllt
dann ihren Zweck, wenn das hergestellte Produkt einen Ertrag in vorgegebener Höhe
erbringt. Die Funktion eines Projektteams besteht in der Abwicklung eines Projek-
tes zur Erstellung einer neuen Produktionsanlage. Es erfüllt seinen Zweck, wenn die
Projektierung in der vorgegebenen Zeit im vorgesehenen Kostenrahmen abgeschlossen
werden kann. Schließlich besteht die Funktion eines mathematischen Modells darin,
auf der Grundlage vorgegebener Spezifikationen eine Vorhersage über das Verhalten
bestimmter Prozessgrößen zu machen. Das Ziel (oder der Zweck) dieser Vorhersage
kann beispielsweise ein besseres Prozessverständnis sein.
Der Informationsgehalt eines Systems, der sich sowohl als Maß für die Unsicherheit der
Systembeschreibung als auch als Maß für das Systemverständnis interpretieren lässt,
muss allein an den Zielen des Betrachters orientiert sein. Unterschiedliche Aufgaben-
stellungen erfordern unterschiedliche Perspektiven der Systembeschreibung (A multi-
facetted view of systems, Zeigler 1984), die sich in der Auswahl der Systemstruktur und
in der Charakterisierung der beteiligten elementaren Systeme äußert.

1.6.8 Aufbau- und Ablaufsysteme

Man unterscheidet Systemtypen nach ganz unterschiedlichen Gesichtspunkten (vgl.


Patzak 1982, Klir 1985, Gigch 1991). Hier soll auf eine einzige, für das Weitere wichtige
Unterscheidung eingegangen werden: die Unterscheidung betrifft Aufbau- und Ablauf-
systeme.
Unter einem Aufbausystem versteht man ein konkretes oder abstraktes System, wenn
es allein auf den Aufbau, d.h. auf die Elemente und deren Zusammenwirken im System,
ankommt. Ein typisches Beispiel ist die Beschreibung eines elektrischen Schaltkreises
durch die Charakterisierung aller Bauteile und deren Verbindungen.
1.7. SYSTEMDARSTELLUNG 21

Im Gegensatz zu diesem produktorientierten Blickwinkel spricht man von einem Ab-


laufsystem, wenn es sich bei den elementaren Systemen um Ablaufprozeduren handelt,
deren Verknüpfung im Sinne einer Abarbeitung in einer vorgeschriebenen zeitlichen Fol-
ge die Gesamtfunktion des Systems ausmachen. Als Beispiel sei eine Betriebsvorschrift
genannt.

1.7 Systemdarstellung
Allgemeine Systeme lassen sich mit unterschiedlichen Formalismen der nichtquantitati-
ven Mathematik beschreiben (z.B. Mengenlehre, Graphentheorie, Logik usw., für eine
kurze Einführung siehe Bruns 1991). Diese Darstellungen haben den Vorteil, dass sie
exakt sind und damit einer Maschinenverarbeitung zugänglich gemacht werden kön-
nen. Andererseits werden diese Darstellungsweisen insbesondere von Ingenieuren als
unanschaulich und zu formalistisch angesehen.
Da die Maschinenverarbeitbarkeit im hier betrachteten Zusammenhang von unterge-
ordneter Bedeutung ist, wollen wir uns hauptsächlich auf semi-formale Repräsentati-
onsmethoden wie beispielsweise Grafiken beschränken. Grafische Darstellungen werden
sowohl in der Systemtheorie als auch in allen Anwendungsbereichen in vielfältiger Weise
zur Systemdarstellung herangezogen.

a) b)

a a

b d b d

c c

Abbildung 1.6: Ein Graph, a) gerichtet, b) ungerichtet (Bruns 1991).

Das formal exakte mathematische Fundament graphischer Darstellungen ist die Gra-
phentheorie. Sie basiert grundsätzlich auf der Mengenlehre und eignet sich zur Dar-
stellung von einer abzählbaren Menge von Elementen, die durch binäre Relationen
miteinander in Beziehung stehen. Ein Graph (Abb. 11.2) besteht aus Knoten, die den
Elementen der Menge entsprechen, und aus Kanten, die binäre Relationen zwischen
Elementen repräsentieren. In einem Graphen, der gerichtet oder ungerichtet sein kann,
lassen sich also unterschiedliche Elemente, aber nur ein Relationentyp repräsentieren.
22 KAPITEL 1. EINFÜHRUNG

Wahrnehmung Modellierung

objektive subjektive Modell


Realität Realität der
Realität

unbewußte bewußte
Abstraktion Abstraktion

Abbildung 1.7: Realität und Modelle.

1.8 Modelle als spezielle Systeme


Ein Modell ist ein vereinfachtes (oder abstrahiertes) Abbild eines interessierenden Ge-
genstandsbereiches, der nur in einigen als wichtig erachteten Aspekten wiedergegeben
werden soll. Jedes Modell kann im Sinne der Systemtheorie auch als ein Aufbausystem
interpretiert werden, das dem beschriebenen realen Gegenstandsbereich zugeordnet ist
(vgl. Abb. 1.7). Damit sind auch Modelle durch die eingeführten Systemeigenschaften
gekennzeichnet.
Um die Besonderheit eines Modells im Vergleich zu einem allgemeinen System genauer
zu erfassen, gehen wir von der von Minsky (1965), einem Informatiker, gegebenen
Definition eines Modells aus:

To an observer B an object M is a model of an object A to the extent that


B can use M to answer questions that interest him about A.

Diese Definition zeigt deutlich, dass es nicht ein einziges Modell eines betrachteten Ob-
jektes gibt. Die unterschiedlichen Modellvarianten unterscheiden sich stets durch den
Verwendungszweck, durch die Kenntnisse über den zu modellierenden Gegenstand,
durch die Kenntnisse und Erfahrungen des Modellierers sowie durch den Aufwand
und den Detaillierungsgrad, den man treiben will oder für erforderlich hält. Statt ei-
nes einzigen Modells eines Objektes sollte man vielmehr auf die Entwicklung einer
Modellfamilie, also einer Hierarchie unterschiedlich detaillierter Modelle, abzielen, um
unterschiedliche Aufgabenstellungen angemessen zu unterstützen (Zeigler 1984, Gilles
et al. 1986, Stephanopoulos et al. 1990).
Modelle müssen formal richtig sein. Dazu dürfen sich die im Rahmen der Modellie-
rung getroffenen Annahmen nicht widersprechen. Im Idealfall muss sich das Modell
aus einer Menge getroffener Annahmen im Sinne einer genauen Spezifikation zweifels-
frei ableiten lassen. In der Verfahrenstechnik werden allerdings oft Modelle eingesetzt,
1.9. MATHEMATISCHE MODELLE 23

die diesen strengen Anforderungen nicht entsprechen (z.B. thermodynamisch inkonsis-


tente Reaktionskinetik). Das ist dann akzeptabel, wenn es eine bewusste Entscheidung
ist, die den Modelierungszwecken nicht entgegen steht. Modelle müssen realitätsnah
sein: Die Vorhersage eines Modells muss bis auf einen vorgegebenen Fehler mit der
Realität übereinstimmen. Modelle sind handhabbar zu halten, um sie für die Lösung
einer bestimmten Aufgabe leicht einsetzen zu können. Schließlich muss ein gutes Ver-
hältnis zwischen Aufwand und Nutzen angestrebt werden. Der Aufwand für die Model-
lierung (und die nachfolgende Analyse) ist eng korreliert mit dem Detaillierungsgrad
des Modells, der wiederum die Aussagekraft des Modells bestimmt. Eine sehr genaue
Modellierung ist in vielen Fällen nicht nötig (oder gar unsinnig), weil die Unsicherhei-
ten in einem detaillierten Modell so groß sein können, dass dessen Nutzen im Vergleich
zu einem einfacheren Modell in Frage zu stellen ist. Ganz allgemein sollte der Detaillie-
rungsgrad so klein wie möglich gehalten werden, dass der Modellierungszweck gerade
erreicht wird. Dabei ist allerdings zu bedenken, dass man ein gerade die Zielsetzung
erfüllendes Modell gar nicht entwerfen kann, ohne die mit einem detaillierteren Modell
erzielbaren Ergebnisse abgeschätzt zu haben.
Modelle stellen also spezielle Systeme dar. Wenn komplexe technische Systeme be-
trachtet werden, kann ein Modell zu dessen Beschreibung demnach als eine Aggre-
gation von Modellbausteinen auf verschiedenen hierarchischen Ebenen im Sinne eines
Aufbausystems aufgefasst werden. Vereinfacht kann Modellierung dann als Auswahl,
Spezifizierung und Verknüpfung von Modellbausteinen angesehen werden. Diese Sicht-
weise ist vergleichbar mit den Methoden der Konstruktionssystematik, wo mit Hilfe
eines morphologischen Kastens Lösungen für Teilprobleme ausgewählt werden, um den
Konstruktionsprozess zu unterstützen (Patzak 1982).
Die Festlegung geeigneter Modellbausteine ist von zentraler Bedeutung. Sie müssen die
Abbildung möglichst beliebiger technischer Systeme erlauben. Gleichzeitig sollte aber
die Zahl der eingeführten Modellbausteintypen klein und überschaubar sein, damit sie
vom Modellierer leicht erfasst und ohne Schwierigkeiten zur Unterstützung der Mo-
dellierung herangezogen werden können. Eine kleine Zahl kann angesichts der Vielfalt
technischen Systeme und der darin ablaufenden physikalisch-chemischen Phänomene
nur durch einen entsprechend hohen Abstraktionsgrad erreicht werden. Offensichtlich
kann die Wahl der Modellbausteine nicht eindeutig sein. Sie kann nur pragmatisch auf
der Grundlage einer breiten Erfahrung im Bereich der Modellierung erfolgen. Allerdings
bieten die diskutierten Konzepte der Systemtheorie einen leistungsfähigen Rahmen für
die Strukturierung technischer Systeme und damit auch der zugeordneten Simulations-
modelle.

1.9 Mathematische Modelle


Mathematische Modelle, durch die Systeme beschrieben werden, können anhand ver-
schiedener Eigenschaften charakterisiert werden: Grundsätzlich kann zwischen dyna-
24 KAPITEL 1. EINFÜHRUNG

mischen und statischen Modellen unterschieden werden, weiterhin zwischen Modellen,


die Systeme durch kontinuierliche Änderungen der Modellgrößen beschreiben und sol-
chen, die Systeme durch diskretes, zeitliches Verhalten beschreiben. Außerdem können
Modelle das Verhalten eines Systems qualitativ oder quantitativ beschreiben. Die zu-
grunde liegenden Prozesse können durch deterministische oder als stochastische bzw.
probabilistische Vorgänge dargestellt werden.
Die Vorlesung „Simulationstechnik“ behandelt nicht alle Arten von in Naturwis-
senschaft und Technik verwendeten Modellen. Der Schwerpunkt der Vorlesung
nimmt Bezug auf dynamische Modelle von kontinuierlichen, diskreten und diskret-
kontinuierlichen Systemen, da diese für Anwendungen im Maschinenbau die größte
Wichtigkeit besitzen.
Im Folgenden werden grundlegende Eigenschaften von mathematischen Modellen, die
in der Vorlesung vorkommen, unabhängig von der Art der zugrunde liegenden realen
Systeme, betrachtet. Dafür werden die mathematischen Modelle nach dem Typ der
zugrunde liegenden Gleichungssysteme klassifiziert:

• Gewöhnliche Differentialgleichungen in der Zeit treten auf, wenn die örtlichen


Abhängigkeiten der Systemgrößen unberücksichtigt bleiben:
dv 1
= F
dt m
• Partielle Differentialgleichungen enthalten Ableitungen der Systemgrößen nach
Ort und Zeit. Sie ergeben sich dann, wenn die Ortsabhängigkeiten der System-
größen berücksichtigt werden sollen:
∂a ∂ 2a
= 2
∂t ∂z
• Algebraische Gleichungen enthalten keine abgeleiteten Variablen:
x2 + y 2 = L2

• Differenzengleichungen beschreiben Beziehungen zwischen Variablen zu unter-


schiedlichen, diskreten Zeitpunkten oder an diskreten Ortspunkten:
x(k + 1) = a · x(k) + 2

Man unterscheidet entsprechend konzentrierte Systeme, deren Größen nur zeitabhän-


gig sind, und verteilte Systeme, bei denen neben der Zeitabhängigkeit noch andere
Abhängigkeiten auftreten. Konzentrierte Systeme werden durch gewöhnliche Differen-
tialgleichungen oder Systeme von gewöhnlichen Differentialgleichungen und algebra-
ischen Gleichungen beschrieben. Verteilte Systeme werden durch partielle Differenti-
algleichungen beschrieben. Von örtlicher Verteilung spricht man dann, wenn lediglich
Ortskoordinaten als weitere unabhängige Variable auftreten.
1.10. ZUSAMMENFASSUNG 25

Konzentrierte Systeme

Diskret-kontinuierliche
Kontinuierliche Systeme Diskrete Systeme
Systeme

Differentialgleichungs- Differential-algebraische
Zeitdiskrete Systeme Ereignisdiskrete Systeme
systeme Gleichungssysteme

Abbildung 1.8: Klassifizierung konzentrierter Systeme

Modelle konzentrierter Systeme lassen sich entsprechend Abb. 1.8 verschiedenen Klas-
sen zuordnen. Hier kann zwischen kontinuierlichen, diskreten, sowie diskret-kontinu-
ierlichen Systemen unterschieden werden. Kontinuierliche Systeme lassen sich dabei
anhand der zugrunde liegenden Struktur der Modellgleichungen weiter differenzieren.
So werden Systeme, die ausschließlich aus gewöhnlichen Differentialgleichungen be-
stehen, Differentialgleichungssysteme, Systeme aus algebraischen Gleichungen, alge-
braische Systeme und Systeme, die sowohl aus Differentialgleichungen als auch aus
algebraischen Gleichungen bestehen, differential-algebraische Systeme genannt.
Im Rahmen des ersten Teils der Vorlesung werden ausschließlich konzentrierte Systeme
betrachtet. Der zweite Teil der Vorlesung beschäftigt sich mit verteilten Systemen.

1.10 Zusammenfassung

In diesem Kapitel wurden die grundlegenden Konzepte der Systemtheorie eingeführt


und die Betrachtung von Modellen als spezielle Systeme motiviert. Diese Konzepte
bilden die systematische Grundlage zur Entwicklung von hierarchisch strukturierten,
mathematischen Modellen auf der Basis von elementaren Modellbausteinen. Damit
werden zum einen bewertbare und wiederverwendbare Modelle erhalten, zum anderen
ergibt sich auch ein Rahmenwerk für die Modellierung komplexer technischer Systeme.
Bei der Modellierung eines aus vielen elementaren Modellbausteinen aufgebauten, kom-
plexen Prozesses, werden nacheinander die Modellgleichungen der elementaren Baustei-
ne formuliert. Jeder der Modellbausteine soll so behandelt werden, dass nach entspre-
chender Spezifikation ein vollständiges, numerisch lösbares Modell zur Analyse seines
Verhaltens entsteht. In einem zweiten Schritt werden diese Teilgleichungssysteme dann
zum Gesamtgleichungssystem zusammengefügt. Für diese zwei Arbeitsschritte ist in
der Regel umfangreiches Fachwissen über das betrachtete, reale technische System er-
forderlich. Darüber hinaus gibt es jedoch Gemeinsamkeiten bezüglich der in einer tech-
nischen Disziplin auftretenden Modellgleichungen und Modellstrukturen. Diese werden
26 KAPITEL 1. EINFÜHRUNG

in Kapitel 8 für elektrische, Kapitel 9 für mechanische und in Kapitel 10 für thermo-
dynamische Systeme dargestellt.
Eine ausführliche Beschreibung der mathematischen Eigenschaften dieser Systemklas-
sen erfolgt in den Kapiteln 2 bis 5. Diskrete Systeme lassen sich wiederum zu zeitdis-
kreten Systemen, sowie ereignisdiskreten Systemen klassifizieren, welche in Kapitel 6
betrachtet werden. Hier wird zudem auf diskret-kontinuierliche Systeme eingegangen,
in welchen das betrachtete System sowohl durch kontinuierliche als auch durch diskrete
Zustandsänderungen beschrieben wird.
Ein wichtiges Rahmenwerk für die Analyse und Beschreibung dieser verschiedenen
Klassen konzentrierter Systeme, bildet das Zustandsraumkonzept, welches für den zeit-
kontinuierlichen Fall in Kapitel 2 und für den diskreten und diskret-kontinuierlichen
Fall in Kapitel 6 eingeführt wird.

Abel, D. (1990). Petri-Netze für Ingenieure. Modellbildung und Analyse diskret gesteu-
erter Systeme. Springer.

Bahill, A.T. und B. Gissing (1998). Re-evaluating systems engineering concepts using
systems thinking. IEEE Transactions on Systems, Man, and Cybernetics, Part C:
Applications and Reviews 28(4), S. 516 –527.

Bard, Y. (1974). Nonlinear Parameter Estimation. Academic Press New York.

Brenan, K.E., S.L. Campbell und L.R. Petzold (1996). Numerical Solution of Initial
Value Problems in Differential-Algebraic Equations. SIAM. Philadelphia, PA.

Bruns, M. (1991). Systemtechnik. Methoden zur interdisziplinären Systementwicklung.


Springer. Berlin.

Bunge, M. (1977). Treatise on Basic Philosophy. Vol. 3: Ontology I: The Furniture of


the World. D. Riedel. Dordrecht.

Bunge, M. (1979). Treatise on Basic Philosophy. Vol. 4: Ontology II: A World of Sys-
tems. D. Riedel. Dordrecht.

Cassandras, C.G. und S. Lafortune (1999). Introduction to Discrete Event Systems.


Kluwer.

Dahmen, W. und A. Reusken (2008). Numerik für Ingenieure und Naturwissenschaftler.


Springer.

David, R. und H. Alla (2005). Discrete, Continuous, and Hybrid Petri Nets. Springer.
1.10. ZUSAMMENFASSUNG 27

DIN 60617-2 bis -11: Graphische Symbole für Schaltplän (1996). Beuth Verlag.

Diwekar, Urmila M. und Jayant R. Kalagnanam (1997). Efficient sampling technique


for optimization under uncertainty. AIChE Journal 43, S. 440–447.

Föllinger, O. (2008). Regelungstechnik. Hüthig Verlag, Verlagsgruppe Hüthig Jehle


Rehm GmbH, Heidelberg, München, Landsberg, Berlin.

Föllinger, O. und D. Franke (1982). Einführung in die Zustandsbeschreibung dynami-


scher Systeme. R. Oldenbourg. München.

Fritzson, Peter (2004). Principles of Object-Oriented Modeling and Simulation with


Modelica 2.1. IEEE Press. Wiley-Interscience. ISBN: 0-471-47163-1.

Gerdin, M. (2004). Computation of a canonical form for linear differential-algebraic


equations. Proceedings of Reglermöte (Swedish National Conference on Control),
Gothenburg, Sweden.

Gigch, J.P. van (1991). System Design Modeling and Metamodeling. Springer. New
York.

Gilles, E.D., P. Holl und W. Marquardt (1986). Dynamische Simulation komplexer


chemischer Prozesse. Chem. Ing. Tech. 58, S. 268–278.

Griepentrog, E. und R. März (1986). Differential-Algebraic equations and their nume-


rical treatment. Teubner-Texte Mathematik. Leipzig.

Hangos, K. M. und I. T. Cameron (2001). Process Modelling and Model Analysis.


Academic Press.

Hirsch, Morris W. (2004). Differential equations, dynamical systems and an introduc-


tion to chaos. Elsevier Academic Press.

J.C. Morud, S. Skogestad (1998). Analysis of instability in an industrial ammonia


reactor. AIChE Journal 44, S. 888–895.

Jerri, A.J. (1977). The Shannon sampling theorem — its various extensions and app-
lications: A tutorial review. Proc. IEEE 65, S. 1565–1596.

Jongen, H.Th. (2003). Vorlesungsskript zur Höheren Mathematik. Lehrstuhl C für Ma-
thematik, RWTH-Aachen.

Khalil, Hassan K. (2000). Nonlinear systems. Pearson Education.

Klir, G.J. (1985). Architecture of Systems Problem Solving. Plenum Press. New York.

Kramer, U. und M. Neculau (1998). Simulationstechnik. Fachbuchverlag Leipzig.


28 KAPITEL 1. EINFÜHRUNG

Lunze, J. (2006). Ereignisdiskrete Systeme: Modellierung und Analyse dynamischer Sys-


teme mit Automaten, Markovketten und Petrinetzen. Oldenbourg Wissenschafts-
verlag.

Marquardt, W. (2005). Simulationstechnik IV: Modellgestützte Schätzmethoden. Vorle-


sungsmanuskript. AVT-Prozesstechnik, RWTH Aachen.

Marquardt, W. (2010). Modellbildung und Analyse verfahrenstechnischer Prozesse. Vor-


lesungsmanuskript. AVT-Prozesstechnik, RWTH Aachen.

Minsky, M. (1965). Matter, mind and models. In: Proc. IFIP Congress Information
Processing (W.A. Kalenich, Hrsg.). Vol. 1. New York City, Mai 1965. Spartan
Books. Washington. S. 45–49.

Patzak, G. (1982). Systemtechnik - Planung komplexer innovativer Systeme. Springer.


Berlin.

Schlegel, Martin, Wolfgang Marquardt, Rainald Ehrig und Ulrich Nowak (2004). Sen-
sitivity analysis of linearly-implicit differential-algebraic systems by one-step ex-
trapolation. Appl. Numer. Math. 48(1), S. 83–102.

Shannon, C.E. (1998). Communication in the presence of noise. Proc. IEEE (Nach-
druck) 86, S. 447–457.

Shannon, R.E. (1975). Systems Simulation: The Art and Science. Prentice-Hall, Engle-
wood Cliffs, NJ.

Simon, H.A. (1981). The Sciences of the Artificial. 2. Auflage. The MIT Press. Cam-
brige, MA.

Stephanopoulos, G., G. Hennig und H. Leone (1990). MODEL.LA. A modeling lan-


guage for processs engineering. Comput. Chem. Engng 14, S. 813–869.

Unbehauen, H. (2007). Regelungstechnik II: Zustandsregelungen, digitale und nichtli-


neare Regelsysteme. 9. Auflage. Friedrich Vieweg & Sohn Verlag.

Unbehauen, R. (1993). Systemtheorie. 6. Auflage. R. Oldenbourg. München.

van der Schaft, A. J. und J. M. Schumacher (1999). An Introduction to Hybrid Dyna-


mical Systems. Springer, Berlin.

VDI-Richtlinie 3633 Blatt 1 (2000). Simulation von Logistik-, Materialfluss- und Pro-
duktionssystemen, Grundlagen. VDI-Handbuch Materialfluss und Fördertechnik,
Band 8. Gründruck, Beuth, Berlin.

Zeigler, B.P. (1984). Multi-facetted Modeling and Discrete Event Simulation. Academic
Press. London.
Kapitel 2

Das zeitkontinuierliche
Zustandsraumkonzept

Im Rahmen dieser Vorlesung befassen wir uns mit Modellen, die das dynamische Ver-
halten von Systemen beschreiben.
Der erste Teil der Vorlesung befasst sich dabei mit zeitkontinuierlichen Systemen. Ihr
Verhalten wird durch Systeme von Differentialgleichungen und algebraischen Gleichun-
gen beschrieben, die im Folgenden allgemein als „Differential-Algebraische Systeme“
(DA-Systeme) bezeichnet werden. Kapitel 2 bis 4 dieses Skriptes behandeln die Be-
schreibung, Simulation und Analyse von zeitkontinuierlichen Systemen. Dabei wird in
Kapitel 2 zuerst das Konzept des Zustandsraumsystems erläutert. Zustandsraumsyste-
me sind Spezialfälle von DA-Systemen, die in vielen Ingenieurwissenschaften Verwen-
dung finden und die aufgrund ihrer relativ einfachen Struktur gut geeignet sind, um die
Simulation und Analyse von dynamischen Systemen zu studieren. Aus diesem Grund
werden die Ausführungen der folgenden Kapitel zunächst für Zustandsraumsysteme
erläutert und (wo notwendig) wird die Anwendung auf allgemeine DA-Systeme nach-
geschoben. Kapitel 5 erläutert schließlich Eigenarten von allgemeinen DA-Systemen,
die für Zustandsraumsysteme nicht auftreten, die aber zum Verständnis der Funkti-
onsweise von Simulatoren dynamischer Systeme notwendig sind.

2.1 Definition der Zustandsdarstellung


Föllinger und Franke (1982) schreiben:

Aus physikalischen Gesetzen, die einen Prozess beschreiben, kann man einen
Zusammenhang zwischen den Eingangsgrößen u und den Ausgangsgrößen
y herstellen. Häufig erhält man diesen in Form eines Gleichungssystems,
das aus Differentialgleichungen und gewöhnlichen Gleichungen besteht. Ein

29
30 KAPITEL 2. DAS ZEITKONTINUIERLICHE ZUSTANDSRAUMKONZEPT

solches Gleichungssystem mit Differentialgleichungen erster Ordnung ergibt


sich insbesondere dann, wenn man Bilanzgleichungen nutzt, was im Inge-
nieurwesen sehr häufig der Fall ist.

In der Zustandsdarstellung beschreibt ein System von Differentialgleichungen erster


Ordnung also den Zusammenhang zwischen den Zuständen x, den Eingangsgrößen
u, der Zeit t und den Parametern p, während sich die Ausgangsgrößen y über eine
algebraische Gleichung aus x, u, t und p ergeben. Unter Verwendung der abkürzenden
Schreibweise ẋ ≡ dx
dt
ergeben sich so formal

die Zustandsgleichungen ẋ(t) = f (x(t), u(t), p, t), x(t0 ) = x0 , t ∈ [t0 , te ]


(2.1a)
und die Ausgangsgleichungen y(t) = h(x(t), u(t), p, t). (2.1b)

Im Folgenden beschreiben wir die verwendeten Begriffe des Zustands, der Eingangs-
und Ausgangsgrößen sowie der Parameter im Detail.

Zustandsvektor

Der Zustandsvektor x(t) enthält die so genannten „Speichergrößen“, wie z.B. Füllstände
von Flüssigkeitsbehältern, die Ladung eines Kondensators oder die Spannung, unter der
eine mechanische Feder steht. Diese Größen beschreiben den aktuellen inneren Zustand
eines Systems, der sich mit der Zeit ändern kann. Formal ist der Zustandsvektor x(t) ∈
Rn ein Spaltenvektor und definiert als
 
x1 (t)
x(t) =  ...  .
 
xn (t)

Ausgangsgrößen

Typische Ausgangsgrößen sind Messgrößen wie z.B. gemessene Temperaturen oder


Durchflüsse. Aber auch Größen an der Schnittstelle zu nachfolgenden Teilsystemen,
die sogenannten Kopplungsgrößen, können für das betrachtete System Ausgangsgrößen
darstellen. Beispiele sind Abflüsse bei verfahrenstechnischen Systemen oder Verbrau-
cherspannungen bei elektrischen Systemen. Die formale Definition des Ausgangsgrö-
ßenvektors y(t) ∈ Rm ist  
y1 (t)
y(t) =  ...  .
 
ym (t)
2.1. DEFINITION DER ZUSTANDSDARSTELLUNG 31

Eingangsgrößen

Häufig sind Stellgrößen Eingangsgrößen; als Beispiele seien eine Zulaufventilstellung


oder der Winkel des Gaspedals im Auto genannt. Kopplungsgrößen wie z.B. Zulauf-
ströme aus vorgeschalteten Prozessstufen bzw. Anlagenteilen werden ebenfalls zu den
Eingangsgrößen gezählt. Somit wirken die Ausgangsgrößen des einen Teilsystems oft
als Eingangsgrößen für nachfolgend angeschlossene Teilsysteme. Analog zu den Aus-
gangsgrößen ist der Vektor der Eingangsgrößen u(t) ∈ Rp definiert als
 
u1 (t)
u(t) =  ...  .
 
up (t)

Parameter

Unter Parametern versteht man Größen oder Eigenschaften, die sich zeitlich nicht än-
dern, aber dennoch Einfluss auf das Systemverhalten haben. Parameter können bau-
artbedingt vorgegeben sein, z.B. Wärmeübergangskoeffizienten oder Rohrdurchmesser,
oder aufgrund physikalischer Gesetzmäßigkeiten vorliegen, wie z.B. die Erdbeschleuni-
gung. Der Parametervektor p ∈ Rq ist formal definiert als
 
p1
 .. 
p =  . .
pq

Vorteile der Zustandsdarstellung

1. Die Formulierung des Modells in der Zustandsdarstellung ermöglicht eine einheit-


liche und übersichtliche Veranschaulichung des Prozesses.

2. Die Zustandsdarstellung ist besonders gut geeignet, um wichtige Systemeigen-


schaften großer und vor allem komplexer Systeme mit zahlreichen Ein- und Aus-
gängen und vielen Zuständen zu analysieren. Aus diesem Grund hat sie sich insbe-
sondere in den Ingenieurswissenschaften zur Beschreibung dynamischer Systeme
bewährt.

3. Von vielen Softwaretools wird die Formulierung eines Modells in Zustandsdar-


stellung vorausgesetzt.

Es sei angemerkt, dass es alternative Darstellungen gibt, die auch vorteilhaft sein kön-
nen. Näheres kommt in weiteren Kapiteln.
32 KAPITEL 2. DAS ZEITKONTINUIERLICHE ZUSTANDSRAUMKONZEPT

2.2 Klassifizierung dynamischer Systeme


An dieser Stelle lässt sich eine grundsätzliche Klassifizierung dynamischer Systeme
vornehmen. Fortan unterscheiden wir zwischen:

1. nichtlinearen zeitinvarianten Systemen

2. nichtlinearen zeitvarianten Systemen

3. linearen zeitinvarianten Systemen

4. linearen zeitvarianten Systemen

(Föllinger und Franke 1982)

2.2.1 Nichtlineare zeitinvariante Systeme

Die Zustandsdarstellung nichtlinearer zeitinvarianter Systeme in der vereinbarten


Schreibweise lautet1

ẋ(t) = f (x(t), u(t), p) (2.2a)


y(t) = g(x(t), u(t), p) (2.2b)

Es ist ausdrücklich zu beachten, dass weder die Zustands- noch die Ausgangsgleichung
explizit von der Zeit t abhängen. Die Zeitabhängigkeit ist allein über die Abhängigkeit
von Eingangs- und Zustandsgrößen von der Zeit gegeben.
Ein einfaches Beispiel zur Veranschaulichung stellt das folgende System dar, welches
in Zustandsdarstellung gebracht wurde:

Beispiel 2.1 (Ein nichtlineares zeitinvariantes System).

ẋ1 (t) = −px1 (t)x2 (t) + x2 (t) (2.3a)


ẋ2 (t) = −x1 (t) + sin(x1 (t))u(t) (2.3b)
y(t) = x21 (t) + x22 (t) (2.3c)

Diese Gleichungen ergeben den in Abbildung 2.1 dargestellten Zeitverlauf mit den An-
fangswerten x1,0 = 2, x2,0 = 1 dem Parameter p = 2 und dem Eingang u(t) = 3 − t.
Man beachte, dass generell u = u(t) sehr wohl eine zeitveränderliche Größe sein kann.
Dennoch spricht man von einem zeitinvarianten System, da die Zeit t nur implizit
Einfluss auf f und g hat.
2.2. KLASSIFIZIERUNG DYNAMISCHER SYSTEME 33

x_1 x_2 y
5.2

4.8

4.4

4.0

3.6

3.2

2.8

2.4

2.0

1.6

1.2

0.8

0.4 t
0.00 0.25 0.50 0.75 1.00 1.25 1.50 1.75 2.00

Abbildung 2.1: Nichtlineares zeitinvariantes System

Ein praktisches Beispiel für ein nichtlineares zeitinvariantes System ist die „Mehrstufige
Brunnenkaskade“.

Beispiel 2.2 (Brunnenkaskade). Wir betrachten eine Brunnenkaskade bestehend aus


drei Brunnen, Abbildung 2.2.
Zunächst einmal sammeln wir alle relevanten Größen, die zur Beschreibung einer n-
stufigen Brunnenkaskade notwendig sind:

• Zulaufvolumenströme qein,i (t) i=1,...,n [m3 /s]


(potentielle Eingangsgrößen)

• Ablaufvolumenströme qaus,i (t) i=1,...,n [m3 /s]


(potentielle Ausgangsgrößen)

• Füllstände hi (t), hi (t0 ) = hi,0 , i=1,...,n [m]


(Zustände, Anfangswerte)

• Rohrquerschnitte si , i=1,...,n [m2 ]


(Parameter)
1
Es findet sich auch eine verkürzte Schreibweise in der Form:

ẋ = f (x, u, p)
y = g(x, u, p)
34 KAPITEL 2. DAS ZEITKONTINUIERLICHE ZUSTANDSRAUMKONZEPT

qein,1

h1 s1 qaus,1
= qein,2
Brunnen 1

s2 qaus,2
h2
= qein,3
Brunnen 2

h3 s3
qaus,3
Brunnen 3

Abbildung 2.2: Abstrakte Darstellung einer Brunnenkaskade

• Brunnenquerschnitte Ai , i=1,...,n [m2 ]


(Parameter)

• Erdbeschleunigung g [m/s2 ]
(Parameter)

Wie wir später in Abschnitt 10.2.1.1 sehen werden, kann man durch Formulieren einer
Massenbilanz diese Größen in einen physikalischen Zusammenhang bringen. Da Wasser
eine konstante Dichte hat, führt eine solche Bilanz für n = 3 Brunnen schließlich zum
folgenden Gleichungssystem:

dhi 1
= (qein,i (t) − qaus,i (t)) , hi (t0 ) = hi,0 , i = 1, 2, 3 (2.4)
dt t Ai

und

(2.5a)
p
qaus,i (t) = si 2ghi (t)
qein,1 (t) = u(t) wobei u(t) bekannt! (2.5b)
qein,2 (t) = qaus,1 (t) (2.5c)
qein,3 (t) = qaus,2 (t) (2.5d)
y(t) = qaus,3 (t) (2.5e)

Somit gibt es jeweils eine Differentialgleichung pro Brunnen und dementsprechend drei
Zustände hi (t) und Anfangswerte hi,0 . Bei u(t) handelt es sich um eine bekannte Zeit-
2.2. KLASSIFIZIERUNG DYNAMISCHER SYSTEME 35

funktion, die hier den Zulauf in Brunnen 1 repräsentiert und y(t) entspricht den Aus-
gangsgrößen, also unseren gemessenen Größen, hier nur dem aus Brunnen 3 ausflie-
ßenden Volumenstrom. Eine Implementierung der angesprochenen dreistufigen Kaskade
in Dymola findet sich in Anhang A.2 wieder.
Aus Gleichung (2.4) und dem Gleichungssystem (2.5) ergibt sich durch Einsetzen die
Zustandsdarstellung des Brunnensystems, bestehend aus den Zustandsgleichungen
 p 
1
(u(t) − s 2gh (t))
 
h1 A1p 1 1
dx d   p
= f (u(t), x(t), p) ⇒ h2 =  A12 (s1 2gh1 (t) − s2 2gh2 (t)) , h(t0 ) = h0
 
dt t dt p p
h3 t 1
(s 2gh2 (t) − s3 2gh3 (t))
A3 2
(2.6)
und der Ausgangsgleichung

(2.7)
p
y(t) = g(h(t), u(t), p) = s3 2gh3 (t),

wobei aus Platzgründen auf die Angabe der Zeitabhängigkeit verzichtet wurde.

2.2.2 Nichtlineare zeitvariante Systeme

Wird in unserem nichtlinearen System zusätzlich die Zeit explizit berücksichtigt, so


stellen wir dies in unserer allgemeinen Zustandsdarstellung in folgender Form dar:

ẋ(t) = f (x(t), u(t), p, t) (2.8a)


y(t) = g(x(t), u(t), p, t) (2.8b)

Dies ist die allgemeinste Form der Zustandsdarstellung. Machen wir uns nun den Zei-
teinfluss an einem Beispiel bewusst:

Beispiel 2.3 (Ein nichtlineares zeitvariantes System).

ẋ1 (t) = exp(−t)(−px1 (t)x2 (t) + x2 (t)) (2.9a)


ẋ2 (t) = x1 (t) + sin(x1 (t))u(t) (2.9b)
y(t) = x21 (t) + x22 (t) (2.9c)

Diese Gleichungen ergeben den in Abbildung 2.3 dargestellten Zeitverlauf mit den An-
fangswerten x1,0 = 2, x2,0 = 1 dem Parameter p = 2 und dem Eingang u(t) = 1.
Die Zeitabhänigkeit des Systems ist besonders gut an dem Exponentialterm zu erkennen.
Man beachte, dass u auch konstant sein kann. Da t aber trotzdem explizit in f eingeht,
spricht man dennoch von einem zeitvarianten System.

Auf eine Besonderheit sei an dieser Stelle noch explizit hingewiesen. Bei nichtlinearen
Systemen kann man die Zeitabhängigkeit des Systems auch durch das Einführen einer
36 KAPITEL 2. DAS ZEITKONTINUIERLICHE ZUSTANDSRAUMKONZEPT

x_1 x_2 y_1


17
16
15
14
13
12
11
10
9
8
7
6
5
4
3
2
1
0 t
0.00 0.25 0.50 0.75 1.00 1.25 1.50 1.75 2.00

Abbildung 2.3: Nichtlineares zeitvariantes System

neuen Variable eliminieren. Diese Erkenntnis wird uns letztendlich zu dem Schluss füh-
ren, dass im Nichtlinearen zeitvariante und zeitinvariante Systeme äquivalente Klassen
sind.
Sehen wir uns die Reformulierung im Detail an. Das Ausgangssystem sei durch die
Gleichungen (2.8) gegeben. In diesem nichtlinearen zeitvarianten System erweitern wir
den Zustandsvektor x um eine skalare Größe xn+1 . D.h. wir führen einen neuen Vektor
x̄ ein. Dadurch ändert sich auch die rechte Seite unseres Ausgangssystems. f¯ enthält
f und die Zeit t wird letztendlich durch die Größe xn+1 ersetzt. Wir führen die Zeit t
also als eine Zustandsvariable ein.

   
n n+1 x(t) ¯ f (x(t), u(t), p, xn+1 (t))
x(t) ∈ R , x̄(t) ∈ R , x̄(t) = , f (x̄(t), u(t), p) =
xn+1 (t) 1
(2.10)
Während unser Zustandsvektor x noch n skalare Größen enthielt, wird unser neuer
Zustandsraum um eine Dimension größer sein. Man hat also offensichtlich eine Diffe-
rentialgleichung hinzugefügt, die die Zeit t beschreibt, denn
dxn+1
= 1. (2.11)
dt t

Für die spezielle Anfangsbedingung

xn+1 (0) = 0 (2.12)

ergibt sich somit die Lösung:


Z t
dxn+1
xn+1 (t) = xn+1 (0) + dτ = t (2.13)
| {z }
0
0 | dτ
{z }
1
2.2. KLASSIFIZIERUNG DYNAMISCHER SYSTEME 37

Damit ergibt sich das erweiterte System, welches nun ausdrücklich zeitinvariant ist.
˙
x̄(t) = f¯(x̄(t), u(t), p), ȳ(t) = ḡ(x̄(t), u(t), p) (2.14)

Zur Veranschaulichung der Vorgehensweise nehmen wir uns das nichtlineare, zeitvari-
ante System (2.9) aus Beispiel 2.3 zuhilfe. Darin erweitern wir nun den Zustandsvektor
durch das Einführen von x̄3 :
x̄1 (t) := x1 (t)
x̄2 (t) := x2 (t)
x̄3 (t) := t

Wir erhalten das reformulierte zeitinvariante System:


x̄˙ 1 (t) = exp(−x̄3 (t))(−px̄1 (t)x̄2 (t) + x̄2 (t) (2.15a)
x̄˙ 2 (t) = x̄1 (t) + sin(x̄1 (t)u(t)) (2.15b)
x̄˙ 3 (t) = 1 (2.15c)
ȳ(t) = x̄21 (t) + x̄22 (t) (2.15d)

Es ist jedoch besonders wichtig, darauf Acht zu geben, auch die Anfangsbedingungen
neu zu formulieren:
x̄1 (t0 ) = x1,0
x̄2 (t0 ) = x2,0
x̄3 (t0 ) = t0

2.2.3 Lineare zeitinvariante Systeme


Bei der linearen Zustandsdarstellung handelt es sich um eine Spezialisierung der nicht-
linearen Zustandsdarstellung. Hängen weder die Zustands- noch die Ausgangsgleichun-
gen explizit von der Zeit t ab, spricht man von einem linearen zeitinvarianten System.
Man kann es wie folgt darstellen:
ẋ(t) = Ax(t) + Bu(t), x(t0 ) = x0 (2.16a)
y(t) = Cx(t) + Du(t) (2.16b)
Die Matrizen A, B, C und D haben folgende Namen und Dimensionen:
n×n n×p
|A ∈{zR } , | ∈{zR }
B , C Rm×n} ,
| ∈{z | ∈{z
D Rm×p}
Systemmatrix Eingangsmatrix Ausgangsmatrix Durchgangsmatrix
(Dynamikmatrix) (Steuermatrix) (M essmatrix)
Wir wollen auch in diesem Fall ein System betrachten, welches beispielhaft für
lineare zeitinvariante Systeme ist:
38 KAPITEL 2. DAS ZEITKONTINUIERLICHE ZUSTANDSRAUMKONZEPT

Beispiel 2.4 (Ein lineares zeitinvariantes System).

ẋ1 (t) = −2x1 (t) + x2 (t) (2.17a)


ẋ2 (t) = −x1 (t) + u(t) (2.17b)
y(t) = x1 (t) + x2 (t) (2.17c)

Diese Gleichungen ergeben den in Abbildung 2.4 dargestellten Zeitverlauf mit den An-
fangswerten x1,0 = 2, x2,0 = 1 und dem Eingang u(t) = 1.

x_1 x_2 y_1


3.0
2.8

2.6
2.4

2.2
2.0

1.8
1.6

1.4
1.2

1.0
0.8

0.6
t
0 1 2 3 4 5 6 7 8 9 10

Abbildung 2.4: Lineares zeitinvariantes System

Zunächst einmal beginnt man mit dem so genannten „Koeffizienten sammeln“:

   
−2 1 0
A= B=
−1 0 1
   
C= 1 1 D= 0

Diese Matrizen ermöglichen es uns nun, das System in die korrekte Zustandsdarstellung
in Matrix-Vektor-Notation zu überführen.

 
 
−2 1 0
ẋ(t) = Ax(t) + Bu(t) = x(t) + u(t) (2.18a)
−1 0 1
(2.18b)
   
y(t) = Cx(t) + Du(t) = 1 1 x(t) + 0 u(t)

Der sich aus diesen Gleichungen ergebende Zeitverlauf der Zustände und Ausgangsgrö-
ßen ist in Abbildung 2.4 dargestellt.
2.2. KLASSIFIZIERUNG DYNAMISCHER SYSTEME 39

v = const
h
h(t )

s(t )
z = vt

Abbildung 2.5: Modell des Autos

Beispiel 2.5 (Feder-Dämpfer-System). Wir betrachten ein Fahrzeug, das über einen
unebenen Untergrund fährt (Abbildung 2.5). Die relativ kleinen Unebenheiten sollen
dabei von der Radaufhängung (Abbildung 2.6) und dem Rad kompensiert werden. Wir
treffen deshalb folgende Annahmen:

• h bezeichnet die Auslenkung des Rades nach oben oder unten.

• Der Fahrzeugaufbau hat eine große Masse und Trägheit und bewegt sich nicht in
h-Richtung

• Das Rad hat eine kleine Masse und Trägheit. Es wird durch das Straßenprofil zu
einer Bewegung angeregt. Dabei wirkt das Rad als kleines Feder-Dämpfer-System
(Verformung des Reifens).

• Die Radaufhängung wirkt ebenfalls als (großes) Feder-Dämpfer-System

• mA bezeichnet die Masse des Aufbaus. Sie ist erheblich größer als die Masse des
Rades.

• mR bezeichnet die Masse des Rades.

• c1 und d1 sind die Feder- und die Dämpferkonstante der Radaufhängung.

• c2 und d2 sind die Feder- und die Dämpferkonstante des Reifens.

• s beschreibt das Straßenprofil, also ob die Straße Schlaglöcher, Erhebungen o.ä.


aufweist.

Zur Modellierung dieses Systems gehen wir wie in Kap. 9 vor, wo die Modellierung
mechanischer Systeme später noch im Detail besprochen wird. Zunächst schneidet man
das Rad frei und erhält die folgenden Gleichungen, die das dynamische Verhalten der
40 KAPITEL 2. DAS ZEITKONTINUIERLICHE ZUSTANDSRAUMKONZEPT

m A >> m R

c1 d1

h
mR = m

c2 d2

Abbildung 2.6: Modell der Radaufhängung

Feder- und Dämpferelemente beschreiben:

F1 (t) = −c1 h(t) (2.19a)


F2 (t) = −d1 ḣ(t) (2.19b)
F3 (t) = c2 (s(t) − h(t)) (2.19c)
F4 (t) = d2 (ṡ(t) − ḣ(t)) (2.19d)

Mit Hilfe des Newton’schen Gesetzes


4
X
mḧ(t) = Fk (t) (2.20)
k=1

ergibt sich eine Differentialgleichung zweiter Ordnung

mḧ(t) = −c1 h(t) − d1 ḣ(t) + c2 (s(t) − h(t)) + d2 (ṡ(t) − ḣ(t)). (2.21)

Durch Überprüfen der Linearitätsbedingungen Superposition und Homogenität kann


man sich überzeugen, dass das Modell linear in den differentiellen Variablen h, ḣ, ḧ, s
und ṡ ist. Nun wollen wir das Modell in ein lineares Zustandsmodell umformen. Wir
definieren zunächst die Zustands- und Eingangsgrößenvektoren:

x1 (t) = h(t), u1 (t) = s(t)


x2 (t) = ḣ(t), u2 (t) = ṡ(t)

Wir können die Bewegungsgleichung in ein System von Differentialgleichungen umfor-


men. Allgemein gilt, dass sich jede Differentialgleichung n-ter Ordnung in ein System
2.2. KLASSIFIZIERUNG DYNAMISCHER SYSTEME 41

aus n Differentialgleichungen erster Ordnung überführen lässt, wie sie für die Zustands-
darstellung benötigt werden.
     
d x1 ḣ x2 (t)
= = 1
dt x2 t ḧ t m
{(−c1 − c2 )x1 (t) + (−d1 − d2 )x2 (t) + c2 u1 (t) + d2 u2 (t)}

In Matrix-Vektor-Schreibweise ergibt dies:


       
d x1 0 1 x1 (t) 0 0 u1 (t)
= 1 1 + 1 1
dt x2 t − m (c1 + c2 ) − m (d1 + d2 ) x2 (t) c
m 2
d
m 2
u2 (t)

Als Ausgangsgröße interessieren wir uns für die Auslenkung des Rades. Es gilt also
y(t) = x1 (t). Nun wollen wir unser lineares Zustandsraum-Modell aufschreiben:
       
d x1 0 1 x1 (t) 0 0 u1 (t)
= + 1 (2.22a)
dt x2 t − m1 (c1 + c2 ) − m1 (d1 + d2 ) x2 (t) c 1d
m 2 m 1
u2 (t)
| {z } | {z } | {z } | {z } | {z }
ẋ(t) A x(t) B u(t)
   
 x1 (t)  u1 (t)
(2.22b)
 
y(t) = 1 0 + 0 0
| {z } x2 (t) | {z } u2 (t)
C | {z } D | {z }
x(t) u(t)

Somit lässt sich das System kompakt in der eingangs beschriebenen linearen Zustands-
raumdarstellung, Gleichung (2.16) darstellen, wobei
   
x1 (t) u1 (t)
x(t) = u(t) =
x2 (t) u2 (t)
   
0 1 0 0
A= B= 1
− m1 (c1 + c2 ) − m1 (d1 + d2 ) c 1d
m 2 m 2
   
C= 1 0 D= 0 0 .

Eine Implementierung des Feder-Dämpfersystems mit der Darstellung des linearen Zu-
standsraummodells in Dymola ist im Anhang A.3 aufgeführt.

2.2.4 Lineare zeitvariante Systeme

Konsequenterweise betrachten wir an dieser Stelle noch die linearen zeitvarianten Sys-
teme, die sich ergeben, wenn die Systemmatrizen explizit von der Zeit abhängig sind.
Dann schreiben wir die verallgemeinerte lineare Zustandsdarstellung in der Form:

ẋ(t) = A(t)x(t) + B(t)u(t), x(t0 ) = x0 , (2.23a)


y(t) = C(t)x(t) + D(t)u(t) (2.23b)

Zur Veranschaulichung behandeln wir erneut ein kleines Beispiel.


42 KAPITEL 2. DAS ZEITKONTINUIERLICHE ZUSTANDSRAUMKONZEPT

x_1 x_2 y_1


20
18
16
14
12
10
8
6
4
2
0
-2
-4
-6
-8
-10
-12
-14 t
0 1 2 3 4 5 6 7 8 9 10

Abbildung 2.7: Lineares zeitvariantes System

Beispiel 2.6 (Ein lineares zeitvariantes System).

ẋ1 (t) = − sin(t)x1 (t) + x2 (t) (2.24a)


ẋ2 (t) = −x1 (t) + cos(t)u(t) (2.24b)
y(t) = x1 (t) + exp(−0.1t)x2 (t) (2.24c)

Die Lösung des Systems, d.h. die Zustände und Ausgangsgrößen als Funktionen der
Zeit sind in Abbildung 2.7 mit den Anfangswerten x1,0 = 2, x2,0 = 10 und dem Eingang
u(t) = 1. Durch „Koeffizienten sammeln“ erhalten wir demzufolge die Systemmatrizen:
   
− sin(t) 1 0
A(t) = B(t) =
−1 0 cos(t)
   
C(t) = 1 exp(−0.1t) D(t) = 0

Analog zur Darstellung im zeitinvarianten Fall erhält man in Matrix-Vektor-Schreib-


weise:
   
− sin(t) 1 0
ẋ(t) = A(t)x(t) + B(t)u(t) = · x(t) + · u(t) (2.25a)
−1 0 cos(t)
(2.25b)
   
y(t) = C(t)x(t) + D(t)u(t) = 1 exp(−0.1t) · x(t) + 0 · u(t)

Anmerkung: Im Gegensatz zum nichtlinearen Fall ist eine Reformulierung in ein linea-
res zeitinvariantes System nicht möglich, denn nach dem Einführen eines zusätzlichen
Zustands würden Produktterme aus den ursprünglichen Zuständen mit dem neuen Zu-
stand auftreten. Derartige Terme führen jedoch zu nichtlinearem Verhalten, stellen also
kein lineares zeitinvariantes System mehr dar.
2.3. VISUALISIERUNG DES SYSTEMVERHALTENS 43

x_1 x_2 y_1


120

100

80

60

40

20

-20

-40

-60

-80

-100

-120
4 5 6 7 8 9 10

Abbildung 2.8: Visualisierung des Systemverhaltens

2.3 Visualisierung des Systemverhaltens


Häufig ist es anschaulicher und zugleich aufschlussreicher, das durch die Modellglei-
chungen beschriebene Systemverhalten zu visualisieren. Diese Möglichkeit lässt einen
Überblick über das Lösungsverhalten eines Systems zu.
Die Voraussetzung zur Visualisierung des Systemverhaltens ist, dass die Lösung der
Systemgleichungen x(t) für einen bestimmten Anfangswert x0 vorliegt. Auf analyti-
schem Weg eine Lösung zu ermitteln, ist dabei oftmals schwierig und teilweise ganz
unmöglich. Numerische Lösungsverfahren (z.B. mithilfe von Simulationsprogrammen
wie Dymola) können hier Abhilfe schaffen und auch schneller zum Ziel führen. Grund-
sätzlich gibt es zwei Möglichkeiten, das Systemverhalten zu visualisieren:

1. Nahe liegend ist es, die Zustände einzeln als explizite Funktionen der Zeit aufzu-
tragen, siehe Abbildung 2.8

2. Darüber hinaus ist eine Darstellung im so genannten Zustandsraum möglich.

Definition 2.1 (Zustandsraum). Der Zustandsraum ist der Raum, der von den Zu-
ständen eines dynamischen Systems aufgespannt wird.

Haben wir also für die Anfangsbedingungen x(t0 ) mit den konstanten Parametern p
sowie für bekannte Eingänge u(t) eine Lösung x(t) berechnet oder simuliert, dann
können wir diese im Zustandsraum darstellen.
Eine typische Darstellung im 3-dimensionalen Zustandsraum ist in Abbildung 2.9 dar-
gestellt. Es gilt einige Eigenschaften der Darstellung im Zustandsraum zu beachten:

• Für wachsende t beschreibt x(t) die Bahnkurve bzw. eine so genannte Trajekto-
rie. Ein Beispiel dafür ist in Abbildung 2.10 dargestellt. Die Bahnkurve entspricht
44 KAPITEL 2. DAS ZEITKONTINUIERLICHE ZUSTANDSRAUMKONZEPT

x3

x(t0) = x0 t

Trajektorie,
x(t) Laufvariable t

x2

x3(t)

x1(t) x1 (t)

x2(t) x(t)  x2 (t)


x1 x3 (t)

Abbildung 2.9: Typische Darstellung im Zustandsraum

1.5

t=4
t=6
1
t=8 t=2
t=10
3

0.5

0
0
0.5
1 1
0.8
t=0 0.6
1.5 0.4
0.2
2 0
h1 h2

Abbildung 2.10: Trajektorie im Zustandsraum

der über die Zeit t parametrisierten Lösung des Systems für einen bestimmten
Anfangswert x0 . Zu beachten ist, dass Trajektorien sich für verschiedene An-
fangswerte nicht schneiden.

• Es fällt auf, dass in dieser Darstellung die Zeit t nicht mehr explizit enthalten
ist. Dafür können die qualitativen Wechselwirkungen der einzelnen Zustände sehr
gut in nur einem Diagramm analysiert werden.

• Grundsätzlich ist eine Visualisierung für mehr als drei Dimensionen problematisch
und daher in der Regel unüblich.

Anmerkung: Häufig werden die Trajektorien eines Systems für mehrere Anfangswer-
te in dasselbe Diagramm gezeichnet. Aus historischen Gründen hat sich die Bezeich-
2.4. STATIONÄRE SYSTEME 45

a) b)

a) b)

Abbildung 2.11: a)Phasenporträt des Van-der-Pol-Oszillators und b)dreidimensionale


Phasenporträt des Lorenz-Systems (Kramer und Neculau 1998)

nung Phasenporträt für diese Art der Darstellung ergeben. In Abbildung 2.11 sind die
Phasenporträts zwei interessanter Systeme, der Van-der-Pol-Oszillator und das Lorenz-
System, dargestellt.

2.4 Stationäre Systeme

In den vorangegangenen Abschnitten ist es uns gelungen, die physikalischen Bestim-


mungsgleichungen eines dynamischen Systems in eine standardisierte Form zu über-
führen, um beispielsweise ein schwingungsfähiges System vollständig beschreiben zu
können. Dahinter stand die Motivation, Aussagen über einen Systemverlauf machen zu
können.

Häufig möchten wir jedoch (nur) herausstellen, wann ein System sich zeitlich nicht
mehr ändert. Ab welchem Zeitpunkt sind beispielsweise die Schwingungen eines Sys-
tems derart klein, dass man es als ruhend bezeichnen kann? Diese Art der Fragestellung
taucht insbesondere im Maschinenwesen sehr häufig auf und ist deshalb auch im Rah-
men dieser Veranstaltung von zentraler Bedeutung.

In diesem Zusammenhang ist es daher nötig, den Unterschied zwischen den so genann-
ten dynamischen Systemen und den stationären Systemen deutlich hervorzuheben. Die
folgende tabellarische Gegenüberstellung verfolgt dieses Ziel.
46 KAPITEL 2. DAS ZEITKONTINUIERLICHE ZUSTANDSRAUMKONZEPT

Dynamische Systeme Stationäre Systeme

Ausgehend von Anfangswerten für die Die Zustände stationärer Systeme sind
Zustände verändern sich die Zustände zeitlich konstant und unveränderlich.
der dynamischen Systeme mit der Zeit,
sie sind also zeitlich veränderlich, siehe
Abbildung 2.12

Dynamische Systeme werden mithil- Stationäre Systeme werden durch alge-


fe von Differentialgleichungen beschrie- braische Gleichungen beschrieben.
ben, die zum Beispiel in Form der Zu-
standsdarstellung gegeben sind.

Reale Systeme sind immer zeitabhän- Stationäre Systeme ergeben sich durch
gig. Sie zeigen stets dynamisches Ver- Vereinfachung der Realität. Sie stellen
halten. eine wichtige und nützliche Näherung
dar.

x_1 x_2 y_1


12
11
10
9
8
7
6
5
4
3
2
1
0
-1
-2
-3
-4
-5
-6
-7
0.00 0.25 0.50 0.75 1.00 1.25 1.50 1.75

Abbildung 2.12: Beispiel für eine dynamische Systemsimulation

Beispiele für stationäre Systeme


Im Folgenden möchten wir einige typische Beispiele für das Vorkommen stationärer
Systeme in Natur und Technik geben.

1. Festigkeitsbetrachtungen: Wenngleich auch dynamische Aspekte bei Konstruktio-


nen von Gebäuden, Tragwerken oder Strukturen berücksichtigt werden müssen,
2.5. RUHELAGEN 47

Abbildung 2.13: Der Windkanal - ein Beispiel für ein stationär betriebenes Experiment

so liefert die stationäre Analyse der Konstruktion eine erste sinnvolle Bestimmung
der auftretenden Belastungen und der notwendigen Bauteildimensionen.

2. Mittelwertbetrachtungen: Bestimmte Prozesse, wie z.B. Alterungsprozesse eines


Katalysators, gehen sehr langsam vorwärts. Für dynamische Simulationen über
kurze Zeiträume werden sie deshalb oft vernachlässigt. Stattdessen rechnet man
mit einem „mittleren“ Zustand des Katalysators. Es wird also angenommen, dass
sich dieser Zustand über die gesamte Dauer der Simulation nicht ändert, er ist
stationär.

3. Stationäre Fließprozesse: Sie ergeben sich aus festen Randbedingungen, zu denen


sich ein Strömungsfeld ausbildet, welches zeitlich unverändert bestehen bleibt.
Stationäre Fließprozesse werden im Windkanal erforscht (vergleiche Abbildung
2.13).

2.5 Ruhelagen
Wenn ein dynamisches System in einen „Ruhezustand“ gelangt, entsteht ein stationäres
System. Für konstante Eingänge kann ein asymptotisch stabiles System nach einer dy-
namischen Übergangsphase - der so genannten initialen Transiente - für große Zeiten
(genauer: für t → ∞) in eine Ruhelage, also einen zeitunabhängigen Bereich, überge-
hen, siehe Abbildung 2.14. Betrachten wir ein allgemeines nichtlineares System in der
Zustandsdarstellung:

dx
= f (x(t), u(t), p) (2.26a)
dt t
y(t) = g(x(t), u(t), p) (2.26b)
48 KAPITEL 2. DAS ZEITKONTINUIERLICHE ZUSTANDSRAUMKONZEPT

Abbildung 2.14: Übergang des dynamischen Brunnenkaskaden-Systems in eine Ruhe-


lage (Beispiel 2.7)

Definition 2.2 (Ruhelage). Die Ruhelage ist dadurch gekennzeichnet, dass die zeitliche
Änderung aller Zustandsgrößen zu Null wird (Föllinger und Franke 1982).

Dazu müssen wir natürlich annehmen, dass auch alle Eingänge konstant sind. Diese
Umstände drücken sich - bezogen auf die Zustandsdarstellung - folgendermaßen aus:

dx
≡0 (2.27)
dt t
u(t) = const = uR (2.28)
⇒ x(t) = const = xR . (2.29)

In die Zustandsdarstellung eingesetzt, ergibt sich für einen gegebenen Eingang uR und
Parameter p das aufgeführte Gleichungssystem:

0 = f (xR , p, uR ) → xR (2.30a)
yR = g(xR , p, uR ) → yR (2.30b)

Veranschaulichen wir uns diese Methodik zur Bestimmung von Ruhelagen an einem
bekannten Beispiel, der Brunnenkaskade.

Beispiel 2.7 (Ruhelage der Brunnenkaskade). Bei der Brunnenkaskade (siehe Beispiel
2.2) handelt es sich um ein dynamisches System. Durch Umstellung der physikalischen
2.5. RUHELAGEN 49

Abbildung 2.15: Modell der Brunnenkaskade mit konstantem Zulaufstrom

Beziehungen, die das Brunnensystem beschreiben, erhielten wir in Kapitel 2.2.2 die
Zustandsgleichungen (2.6):
1
(2.31a)
p
ḣ1 (t) = (qein,1 (t) − s1 2gh1 (t))
A1
1
(2.31b)
p p
ḣ2 (t) = (s1 2gh1 (t) − s2 2gh2 (t))
A2
1
(2.31c)
p p
ḣ3 (t) = (s2 2gh2 (t) − s3 2gh3 (t))
A3
Es handelt sich dabei wie erwartet um Differentialgleichungen. Simuliert man das Sys-
tem wie in Anhang A.2 beispielsweise mit den Anfangsbedingungen

h1 (t0 ) = 2 m
h2 (t0 ) = 0.1 m
h3 (t0 ) = 0.1 m,

den Parametern

Ai = 2 m2 , i ∈ {1, 2, 3}
s1 = 0.5 m2
s2 = 0.4 m2
s3 = 0.3 m2

und konstantem Zulaufstrom uR = qein = 1 m3 /s, so ergibt sich der Zeitverlauf in


Abbildung 2.14. Deutlich zu erkennen ist, dass die zeitliche Änderung der Füllstände
ab etwa dem Zeitpunkt tR = 15s Null ist. Wir postulieren also für große Zeiten t > tR :

ḣ1 (t) = ḣ2 (t) = ḣ3 (t) = 0


50 KAPITEL 2. DAS ZEITKONTINUIERLICHE ZUSTANDSRAUMKONZEPT

Im Ruhezustand geht das Modell also in die folgende Form über:


1
(2.32a)
p
0= (uR − s1 2gh1,R )
A1
1
(2.32b)
p p
0= (s1 2gh1,R − s2 2gh2,R )
A2
1
(2.32c)
p p
0= (s2 2gh2,R − s3 2gh3,R )
A3
Offensichtlich besteht es nun nur noch aus algebraischen Gleichungen. Dieses entspricht
unseren Erwartungen an ein stationäres System. Durch Umstellen dieser Gleichungen
nach den Füllständen erhalten wir die gesuchten Füllhöhen im stationären Zustand,
hR , wie folgt:
 2
1 uR
h1,R = (2.33)
g s1
 2
1 uR
h2,R = (2.34)
g s2
 2
1 uR
h3,R = (2.35)
g s3

2.6 Lösbarkeit und Freiheitsgrade


Wir betrachten nochmals die stationäre Brunnenkaskade (2.32), stellen uns jetzt jedoch
die Frage, ob im stationären Fall die Zuordnung der Systemvariablen zum Zustands-
vektor x, zum Eingangsvektor u und zum Parametervektor p beliebig gewählt werden
kann, ohne dass sich die Lösbarkeitseigenschaften ändern. Aus der dynamischen Mo-
dellierung liegt die Zuordnung
xR = [h1,R , h2,R , h3,R ]T (2.36)
uR = qein,R (2.37)
p = [g, si , Ai ]T (2.38)
nahe. Was würde beispielsweise passieren, wenn wir die Zuordnung von h1 und qein
vertauschen? Diese Fragestellung führt uns zur Freiheitsgradanalyse. Welche System-
variablen müssen in einem stationären Modell gegeben sein, damit es gelöst werden
kann? Welche allgemeinen Bedingungen muss man an die Lösbarkeit eines nichtlinea-
ren, algebraischen Modells stellen?

Freiheitsgrade stationärer Systeme


Gegeben sei ein (nicht)lineares stationäres Modell mit mehr Variablen als Gleichungen:
0 = f (x, d) (2.39)
2.6. LÖSBARKEIT UND FREIHEITSGRADE 51

Der Vektor x beinhaltet genau so viele Variablen wie symbolische Ausdrücke in f sind.
d sind „überzählige“ Variablen, für die keine Gleichungen zur Berechnung verfügbar
sind. Sie müssen vor einer Berechnung vorgegeben werden. Diese nd Variablen nennt
man „Freiheitsgrade“ des stationären Modells.
Die Vorgabe von nd Variablen d ist also zur vollständigen Spezifizierung des stationären
Modells erforderlich; ansonsten kann man das System nicht lösen. Wenn also in unserem
Beispiel g, si , Ai und qein gegeben sind, können wir h1 , h2 , h3 ohne Weiteres ausrechnen.
Man könnte jedoch auch die Füllhöhe h2 festlegen und daraus ermitteln, welchen Wert
der Zulauf qein annehmen muss, um die Vorgabe zu erreichen.
Es sind somit verschiedene Kombinationen der Vorgaben denkbar, aber es müssen im-
mer nd vorgegeben sein um das Problem lösen zu können. In der Regel sind die Freiheits-
grade gerade die Parameter p und die Eingangsgrößen uR des dynamischen Systems
im stationären Zustand. Insbesondere bei den Parametern spricht man von konstrukti-
onsbedingten Freiheitsgraden, da sie schon beim Bau bzw. der Planung eines Systems
oder einer Anlage optimiert werden können oder berücksichtigt werden müssen. Bei-
spiele für solche konstruktionsbedingten Freiheitsgrade sind Dimensionierungsgrößen
wie Rohrdurchmesser, Materialeigenschaften wie z.B. Wärmeübertragungskoeffizien-
ten oder physikalische Konstanten wie die Schwerkraft. Bei den Eingangsgrößen uR
des Systems im stationären Zustand handelt es sich um einen Spezialfall der soge-
nannten betriebsbedingten Freiheitsgrade, die während des laufenden Anlagenbetriebs
manipuliert und somit auch optimiert werden können. Konstruktions- und betriebsbe-
dingte Freiheitsgrade werden unter dem Begriff der verallgemeinerten Freiheitsgrade
zusammengefasst.

Freiheitsgrade dynamischer Systeme


Im Gegensatz zu stationären Systemen werden dynamische Systeme durch Differenti-
algleichungen der Form
ẋ(t) = f (x(t), u(t), p), x(0) = x0
y(t) = g(x(t), u(t), p)
beschrieben. Durch die Struktur der auftretenden Differentialgleichungen haben dy-
namische Systeme eine größere Anzahl an Freiheitsgraden als stationäre Systeme. Da
stationäre Systeme einen Spezialfall dynamischer Systeme darstellen, entspricht das
unserer intuitiven Erwartung.
Welches sind nun diese zusätzlichen Freiheitsgrade? Es sind die Zeitverläufe der Ein-
gangsgrößen u(t) und die frei wählbaren Anfangswerte x0 . Im Gegensatz zu stationären
Systemen, wo für u definitionsbedingt nur ein konstanter Vektor uR vorgegeben werden
kann, kann bei dynamischen Systemen u(t) nun eine Funktion der Zeit sein. Darüber
hinaus wird das Verhalten eines dynamischen Systems durch seinen Anfangswert x0 be-
einflusst, er kann ebenfalls frei gewählt werden. Sobald ein dynamisches System in den
52 KAPITEL 2. DAS ZEITKONTINUIERLICHE ZUSTANDSRAUMKONZEPT

stationären Zustand übergeht, verschwindet der Einfluss der Anfangswerte, weshalb die
Anfangswerte nur für dynamische, nicht aber für stationäre Systeme als Freiheitsgrade
gelten. Wir halten also fest: Bei dynamischen Systemen hat man die konstruktionsbe-
dingten Freiheitsgrade p sowie die betriebsbedingten Freiheitsgrade u(t) und x0 .
Es sei aber angemerkt, dass ein dynamisches System für gegebenes uR mehr als eine
Ruhelage haben kann, also das stationäre System mehr als eine Lösung. Welche Ru-
helage erreicht wird kann von den Anfangsbedingungen abhängen. Näheres dazu in
Kapitel 4.2 .

Abel, D. (1990). Petri-Netze für Ingenieure. Modellbildung und Analyse diskret gesteu-
erter Systeme. Springer.

Bahill, A.T. und B. Gissing (1998). Re-evaluating systems engineering concepts using
systems thinking. IEEE Transactions on Systems, Man, and Cybernetics, Part C:
Applications and Reviews 28(4), S. 516 –527.

Bard, Y. (1974). Nonlinear Parameter Estimation. Academic Press New York.

Brenan, K.E., S.L. Campbell und L.R. Petzold (1996). Numerical Solution of Initial
Value Problems in Differential-Algebraic Equations. SIAM. Philadelphia, PA.

Bruns, M. (1991). Systemtechnik. Methoden zur interdisziplinären Systementwicklung.


Springer. Berlin.

Bunge, M. (1977). Treatise on Basic Philosophy. Vol. 3: Ontology I: The Furniture of


the World. D. Riedel. Dordrecht.

Bunge, M. (1979). Treatise on Basic Philosophy. Vol. 4: Ontology II: A World of Sys-
tems. D. Riedel. Dordrecht.

Cassandras, C.G. und S. Lafortune (1999). Introduction to Discrete Event Systems.


Kluwer.

Dahmen, W. und A. Reusken (2008). Numerik für Ingenieure und Naturwissenschaftler.


Springer.

David, R. und H. Alla (2005). Discrete, Continuous, and Hybrid Petri Nets. Springer.

DIN 60617-2 bis -11: Graphische Symbole für Schaltplän (1996). Beuth Verlag.

Diwekar, Urmila M. und Jayant R. Kalagnanam (1997). Efficient sampling technique


for optimization under uncertainty. AIChE Journal 43, S. 440–447.
2.6. LÖSBARKEIT UND FREIHEITSGRADE 53

Föllinger, O. (2008). Regelungstechnik. Hüthig Verlag, Verlagsgruppe Hüthig Jehle


Rehm GmbH, Heidelberg, München, Landsberg, Berlin.
Föllinger, O. und D. Franke (1982). Einführung in die Zustandsbeschreibung dynami-
scher Systeme. R. Oldenbourg. München.
Fritzson, Peter (2004). Principles of Object-Oriented Modeling and Simulation with
Modelica 2.1. IEEE Press. Wiley-Interscience. ISBN: 0-471-47163-1.
Gerdin, M. (2004). Computation of a canonical form for linear differential-algebraic
equations. Proceedings of Reglermöte (Swedish National Conference on Control),
Gothenburg, Sweden.
Gigch, J.P. van (1991). System Design Modeling and Metamodeling. Springer. New
York.
Gilles, E.D., P. Holl und W. Marquardt (1986). Dynamische Simulation komplexer
chemischer Prozesse. Chem. Ing. Tech. 58, S. 268–278.
Griepentrog, E. und R. März (1986). Differential-Algebraic equations and their nume-
rical treatment. Teubner-Texte Mathematik. Leipzig.
Hangos, K. M. und I. T. Cameron (2001). Process Modelling and Model Analysis.
Academic Press.
Hirsch, Morris W. (2004). Differential equations, dynamical systems and an introduc-
tion to chaos. Elsevier Academic Press.
J.C. Morud, S. Skogestad (1998). Analysis of instability in an industrial ammonia
reactor. AIChE Journal 44, S. 888–895.
Jerri, A.J. (1977). The Shannon sampling theorem — its various extensions and app-
lications: A tutorial review. Proc. IEEE 65, S. 1565–1596.
Jongen, H.Th. (2003). Vorlesungsskript zur Höheren Mathematik. Lehrstuhl C für Ma-
thematik, RWTH-Aachen.
Khalil, Hassan K. (2000). Nonlinear systems. Pearson Education.
Klir, G.J. (1985). Architecture of Systems Problem Solving. Plenum Press. New York.
Kramer, U. und M. Neculau (1998). Simulationstechnik. Fachbuchverlag Leipzig.
Lunze, J. (2006). Ereignisdiskrete Systeme: Modellierung und Analyse dynamischer Sys-
teme mit Automaten, Markovketten und Petrinetzen. Oldenbourg Wissenschafts-
verlag.
Marquardt, W. (2005). Simulationstechnik IV: Modellgestützte Schätzmethoden. Vorle-
sungsmanuskript. AVT-Prozesstechnik, RWTH Aachen.
54 KAPITEL 2. DAS ZEITKONTINUIERLICHE ZUSTANDSRAUMKONZEPT

Marquardt, W. (2010). Modellbildung und Analyse verfahrenstechnischer Prozesse. Vor-


lesungsmanuskript. AVT-Prozesstechnik, RWTH Aachen.

Minsky, M. (1965). Matter, mind and models. In: Proc. IFIP Congress Information
Processing (W.A. Kalenich, Hrsg.). Vol. 1. New York City, Mai 1965. Spartan
Books. Washington. S. 45–49.

Patzak, G. (1982). Systemtechnik - Planung komplexer innovativer Systeme. Springer.


Berlin.

Schlegel, Martin, Wolfgang Marquardt, Rainald Ehrig und Ulrich Nowak (2004). Sen-
sitivity analysis of linearly-implicit differential-algebraic systems by one-step ex-
trapolation. Appl. Numer. Math. 48(1), S. 83–102.

Shannon, C.E. (1998). Communication in the presence of noise. Proc. IEEE (Nach-
druck) 86, S. 447–457.

Shannon, R.E. (1975). Systems Simulation: The Art and Science. Prentice-Hall, Engle-
wood Cliffs, NJ.

Simon, H.A. (1981). The Sciences of the Artificial. 2. Auflage. The MIT Press. Cam-
brige, MA.

Stephanopoulos, G., G. Hennig und H. Leone (1990). MODEL.LA. A modeling lan-


guage for processs engineering. Comput. Chem. Engng 14, S. 813–869.

Unbehauen, H. (2007). Regelungstechnik II: Zustandsregelungen, digitale und nichtli-


neare Regelsysteme. 9. Auflage. Friedrich Vieweg & Sohn Verlag.

Unbehauen, R. (1993). Systemtheorie. 6. Auflage. R. Oldenbourg. München.

van der Schaft, A. J. und J. M. Schumacher (1999). An Introduction to Hybrid Dyna-


mical Systems. Springer, Berlin.

VDI-Richtlinie 3633 Blatt 1 (2000). Simulation von Logistik-, Materialfluss- und Pro-
duktionssystemen, Grundlagen. VDI-Handbuch Materialfluss und Fördertechnik,
Band 8. Gründruck, Beuth, Berlin.

Zeigler, B.P. (1984). Multi-facetted Modeling and Discrete Event Simulation. Academic
Press. London.
Kapitel 3

Kontinuierliche lineare Systeme

In Kapitel 2 hatten wir uns mit der Zustandsdarstellung linearer Systeme beschäftigt:
dx
ẋ(t) = = Ax(t) + Bu(t), x(t0 ) = x0 (3.1)
dt t
y(t) = Cx(t) + Du(t) (3.2)
Die Gleichung (3.1) hatten wir als Zustandsgleichung identifiziert, sie enthält die Sy-
stemmatrix A und die Eingangsmatrix B, wohingegen Gleichung (3.2) als Ausgangs-
gleichung bezeichnet wird. Sie setzt sich aus der Messmatrix C und der Durchgangs-
matrix D zusammen.
Wir möchten uns nun mit der theoretischen Systemanalyse beschäftigen. Wir wollen
vor einer numerischen Simulation nachvollziehen, auf welche Veränderungen ein System
wie reagiert. Ziel ist es, Verständnis für das System zu schaffen.
So erhalten wir Einblicke in das Systemverhalten, die unabhängig von Simulations-
experimenten sind. Dadurch sind wir in der Lage, Simulationsergebnisse kritisch zu
bewerten und Fehler, z.B. in der Implementierung, zu erkennen und zu vermeiden.

3.1 Lösung autonomer Systeme


Betrachten wir zunächst den einfacheren Spezialfall der autonomen Systeme. Autonome
Systeme sind gekennzeichnet durch die Abwesenheit der Eingangsgröße. Dies ist zum
Beispiel dann der Fall, wenn das System nicht „gesteuert“ wird oder die Eingangsgrößen
schlicht Null sind. Dann gilt also:
u(t) = 0 (3.3)
Für ein skalares Modell ergibt sich dann aus Gleichung (3.1):
dx
= ax(t), x(t0 ) = x0 (3.4)
dt t

55
56 KAPITEL 3. KONTINUIERLICHE LINEARE SYSTEME

Diese Gleichung definiert den skalaren Zustand x als eine kontinuierlich differenzierbare
Funktion für alle Zeiten t ≥ t0 . Formal gilt also:

x : D → R1 D⊂R x ∈ C1 ([t0 , ∞[) (3.5)

Die Lösung des Systems (3.4) ist bereits aus der Lehrveranstaltung Höhere Mathematik
(Jongen 2003) bekannt:
x(t) = ea(t−t0 ) x0 (3.6)
Die Verallgemeinerung für mehrdimensionale Systeme fällt nicht schwer, da man im
Prinzip nur die skalare Größe a durch die quadratische Matrix A austauscht:

dx
= Ax(t) x(t0 ) = x0 (3.7)
dt t

Dabei ist:
x : D → Rn D⊂R x ∈ C1 ([t0 , ∞[) A ∈ Rn×n (3.8)
Die Lösung eines mehrdimensionalen autonomen Systems ergibt sich unter Verwendung
der Matrixexponentialfunktion eA analog zu:

x(t) = eA(t−t0 ) x0 (3.9)

Bei den vorstehenden Formeln ist zu beachten, dass in der Literatur und auch im
folgenden Text oft implizit angenommen wird, dass t0 = 0 gilt.
Obwohl sich die beiden Lösungen (3.6) und (3.9) sehr ähnlich sehen, bringt das Auf-
treten der Matrix-Exponentialfunktion in der Lösung der mehrdimensionalen Systeme
einige besondere Eigenschaften mit sich, die wir uns nun im Detail ansehen wollen.

3.1.1 Matrix-Exponentialfunktion: Definition und Rechenre-


geln

Zunächst einmal stellt sich die Frage, wie die Matrix-Exponentialfunktion eA bzw.
exp(A) definiert ist. Wie die skalare Exponentialfunktion, ist sie als Potenzreihe der
Matrix A definiert:

1 1 X 1
A
A +A + A2 + A3 + ... =
e := |{z} 0
Ak (3.10)
2 6 k=0
k!
I

Sie besitzt die folgenden bemerkenswerten Eigenschaften:

• e0 = I

• in der Regel gilt: eA eB 6= eA+B ; einzige Ausnahme: AB = BA ⇒ eA eB = eA+B


3.1. LÖSUNG AUTONOMER SYSTEME 57

• Die Matrix-Exponentialfunktion ist immer regulär, d.h. det(eA ) 6= 0 ∀ A


• eAt = ∞ k=0 k! A t (folgt unmittelbar aus Gleichung (3.10))
1 k k
P

• Ist die Argumentenmatrix A der Matrix-Exponentialfunktion blockdiagonal,


kann die Matrix-Exponentialfunktion direkt auf die einzelnen Blockmatrizen an-
gewandt
 werden:
  A     At 
A 0 e 0 At 0 e 0
exp = bzw. exp =
0 B 0 eB 0 Bt 0 eBt

Eine Herleitung dieser Eigenschaften findet sich z.B. bei Föllinger (2008).
Die Differentiation ergibt sich analog zum skalaren Fall:
d At
e = AeAt (3.11)
dt
Der kurze Beweis basiert auf Gleichung (3.10) und stellt sich wie folgt dar:
d At d 1 1 1
e = (I + At + A2 t2 + A3 t3 + A4 t4 + . . . )
dt dt 2 6 24
2 2 3 32 4 43
= A + A t + A t + A t + ...
2 6 24
1 22 1 33
= A(I + At + A t + A t + . . . )
2 6
At
= Ae
Damit sind die Lösungen eines linearen autonomen Systems und die wesentlichen Ei-
genschaften der Matrix-Exponentialfunktion bekannt. Nun stellt sich noch die Frage
nach der konkreten Berechnung von eAt für eine gegebenen Systemmatrix A. Darüber
soll uns der nächste Abschnitt über die Jordan-Normalform Aufschluss geben.

3.1.2 Die Jordan-Normalform


Die Lösung des linearen autonomen Systems, Gleichung (3.9), aber insbesondere der
Term eAt , hängt maßgeblich von der Art der Eigenwerte und Eigenvektoren der Sy-
stemmatrix A ab. Für alle quadratischen Matrizen A ∈ Rn×n gibt es nämlich eine
invertierbare Matrix Q, so dass
J = Q−1 AQ (3.12)
eine blockdiagonale, reell-wertige Matrix ist. Mit dieser so genannten Jordan-
Normalform
eJ1 t
   
J1 0 0 0 0 ... 0
 0 J2 0 0  ...
0 eJ2 t 0 
 
J =  .. . . . . .. , e Jt
= .. ..  (3.13)
  
 . . . .  .. ..
. .
 
 . . 
0 ... 0 Jk 0 0 . . . eJk t
58 KAPITEL 3. KONTINUIERLICHE LINEARE SYSTEME

gelingt es also, durch geeignete Zerlegung der Systemmatrix A die Lösungsgleichung


(3.9) in eine andere Form zu überführen.
Wie wir in den folgenden Abschnitten sehen werden, lassen sich die Zerlegungsmatri-
zen J und Q bei Kenntnis der Eigenwerte und Eigenvektoren der Systemmatrix A
aufschreiben oder direkt mithilfe von z.B. Matlab berechnen. Nun bleibt jedoch noch
zu klären, was die Matrizen Jk eigentlich bedeuten.
Die Jordan-Normalform J besteht aus sogenannten Jordan-Blöcken Ji , die in Ab-
hängigkeit von der Art der Eigenwerte λi der Systemmatrix A die folgenden Formen
annehmen können:
Ji = λi , oder
 
λi 1 0 0
 0 λi 1 0 
Ji =  .. . . . . ..  , oder
 
 . . . . 
0 . . . 0 λi
 
Re(λi ) Im(λi )
Ji = , i = 1, ..., n .
−Im(λi ) Re(λi )
Grundsätzlich können verschiedene Jordan-Block-Typen gleichzeitig auftreten, also für
verschiedene i eine andere der drei Formen. In den folgenden Abschnitten beschränken
wir uns aber auf 3 mögliche Eigenwertkonstellationen der Systemmatrix A, bei denen
nur jeweils einer der oben genannten Jordan-Block-Typen entsteht. Diese Eigenwert-
konstellationen sind:

• einfache, reelle Eigenwerte

• mehrfache, reelle Eigenwerte

• komplex-konjugierte Eigenwerte.

Für weitere Details sei auf das Buch von Unbehauen (1993) verwiesen.
Unabhängig von der konkreten Form der Jordan-Blöcke ergibt sich mit der Zerlegung
(3.12) unter Zuhilfenahme von Gleichung (3.10) und der Umformung
∞ ∞ ∞
X 1 k k X 1 −1 k k
X 1
e At
= A t = (QJ Q ) t = QJ k Q−1 tk
k=0
k! k=0
k! k=0
k!

X 1 k k −1
=Q J t Q = QeJt Q−1 (3.14)
k=0
k!

die allgemeine Lösung von Gleichung (3.9) zu

x(t) = eAt x0 = QeJt Q−1 x0 . (3.15)


3.1. LÖSUNG AUTONOMER SYSTEME 59

Dabei entsteht die dritte Gleichheit in Gleichung (3.14) dadurch, dass sich beim Aus-
multiplizieren der Potenzen des Terms QJ Q−1 die Matrizen Q−1 und Q immer paar-
weise wegheben.
Im Folgenden untersuchen wir, welche Form die Lösung x(t) und die Jordanblöcke Ji
für verschiedene Konstellationen von Eigenwerten und Eigenvektoren der Systemmatrix
A annehmen.

3.1.2.1 Typ 1: Einfache, reelle Eigenwerte

Aus der Lehrveranstaltung Höhere Mathematik (Jongen 2003) ist bekannt, wie man
die n Eigenwerte λi und Eigenvektoren νi einer Matrix A ∈ Rn×n berechnet. Man
nutzt dafür die Beziehung
(A − λi I)νi = 0 i = 1...n (3.16)
Mittels Rechnung per Hand oder durch Nutzung entsprechender Software wie z.B.
Matlab erhält man so die Eigenwertmatrix Λ sowie die Eigenvektormatrix V
 
λ1
Λ = diag(λi ) = 
 ... ,

V = [v1 | . . . |vn ] (3.17)
λn
für die wegen Gleichung (3.16)
AV = V Λ (3.18)
gilt. Im Fall einfacher, reeller Eigenwerte, also für λi 6= λj , ∀i 6= j, ist V regulär. Dann
ist V invertierbar und es gilt
A = V ΛV −1 . (3.19)
Analog zu Gleichung (3.14) erhält man
∞ ∞ ∞
X 1 k k X 1 −1 k k
X 1
e At
= A t = (V ΛV ) t = V Λk V −1 tk
k=0
k! k=0
k! k=0
k!

X 1 k k −1
=V Λ t V = V eΛt V −1 (3.20)
k=0
k!

Damit ergibt sich für t0 = 0 aus der Lösungsdarstellung (3.9) die spezielle Lösung
 
e λ1 t
x(t) = eAt x0 = V eΛt V −1 x0 = V 
 ...  −1
 V x0 (3.21)
λn t
e
Beim Vergleich dieser Lösung mit der Lösungdarstellung durch Jordan-Zerlegung (3.15)
stellt man fest, dass für den Fall von einfachen, reellen Eigenwerten von A die Jordan-
Normalform J der Eigenwertmatrix Λ entspricht! In Q = V stehen folglich spalten-
weise die zugehörigen Eigenvektoren von A.
60 KAPITEL 3. KONTINUIERLICHE LINEARE SYSTEME

Satz 3.1 (Jordan-Blöcke bei einfachen, reellen Eigenwerten). Im Fall von einfachen,
reellen Eigenwerten sind die Jordan-Blöcke skalar und durch

Ji = λi

gegeben.

Beispiel 3.1 (Radaufhängung). In Kapitel 2, Beispiel 2.5, beschäftigten wir uns erst-
mals mit einem über eine unebene Straße fahrenden Fahrzeug, Abbildung 2.5, und ins-
besondere mit der Radaufhängung des Fahrzeugs. Das Beispiel der Radaufhängung,
Abbildung 2.6, war verwendet worden, um zu demonstrieren, wie man die physikali-
schen Bestimmungsgleichungen in Modellgleichungen überführt, die wiederum in die
Zustandsform gebracht wurden. Für den autonomen Fall (u1 (t) = u2 (t) ≡ 0, also für
eine glatte Straße) geht die Zustandsdarstellung dieses Modells, Gleichung (2.22), in
    
d x1 0 1 x1 (t)
= −1 −1 (3.22)
dt x2 t
−m (c1 + c2 ) −m (d1 + d2 ) x2 (t)

über. Für die Parameter

c1 = 1, c2 = 10, d1 = 5.7, d2 = 1, m=1 (3.23)

kann die Systemmatrix zu  


0 1
A= (3.24)
−11 −6.7
ausgewertet werden. Eine Eigenwertzerlegung ergibt die folgenden Eigenwert- und Ei-
genvektormatrizen:
   
−2.878 0 0.328 −0.253
Λ= , V = (3.25)
0 −3.822 −0.945 0.967

Man sieht direkt, dass für diesen Parametersatz einfache, reelle Eigenwerte vorliegen.
Für die speziellen Anfangswerte
 
1
x(t0 ) = x0 =
1

ergibt sich mit Gleichung (3.21) somit die analytische Lösung

5.11e−2.878t − 4.11e−3.822t
   
x1 (t)
x(t) = = . (3.26)
x2 (t) −14.71e−2.878t + 15.71e−3.822t

Eine Simulation in Modelica führt zu den Lösungskurven x1 (t) und x2 (t) in Abbildung
3.1.
3.1. LÖSUNG AUTONOMER SYSTEME 61

Abbildung 3.1: Simulation der Radaufhängung für die zwei einfachen, reellen Ei-
genwerte λ1 = −2.878 und λ2 = −3.822 aus Beispiel 3.1. Die Anfangswerte sind
x1 (0) = x2 (0) = 1.

Lösungseigenschaften

An Gleichung (3.26) kann man bereits gut erkennen, dass sich die Lösung eines li-
nearen autonomen Systems mit einfachen reellen Eigenwerten aus einer Summe von
Exponentialfunktionen zusammensetzt. Die Eigenwerte treten als Zeitkoeffizienten in
der Exponentialfunktion auf und bestimmen damit entscheidend das Zeitverhalten. Im
allgemeinen Fall von n einfachen, reellen Eigenwerten gilt

x(t) = m1 eλ1 t + m2 eλ2 t + ... + mn eλn t (3.27)


mit konstanten, reell-wertigen Spaltenvektoren mi . Anhand dieser Darstellung kann
man prinzipiell drei Arten von Systemverläufen für unterschiedliche Eigenwerte gut
nachvollziehen:

• Für ausschließlich negative Eigenwerte λi < 0, i = 1, 2, ..., n, klingt die Lösung


mit der Zeit t ab, vergleiche Abbildung 3.1 in obigem Beispiel.

• Sobald λi = 0 für ein i ∈ 1, ..., n, wird der Term i von Gleichung 3.27 konstant. Es
ergibt sich ein qualitatives Verhalten ähnlich der Darstellung in Abbildung 3.2.
In diesem Beispiel entspricht die obere Kurve dabei dem Zustand x1 , dem nur der
Eigenwert Null zugeordnet werden kann. Daher bleibt dieser Zustand konstant,
während der andere Zustand x2 abklingt, da der ihm zugeordnete Eigenwert
negativ ist. Falls der Eigenwert positiv wäre, würde der Zustand aufklingen.
62 KAPITEL 3. KONTINUIERLICHE LINEARE SYSTEME

Abbildung 3.2: Zeitverlauf eines zweidimensionalen Systems mit den einfachen, reellen
Eigenwerten λ1 = 0, λ2 = −1 und den Anfangswerten x1 (0) = x2 (0) = 1.

• Wenn λi > 0 für mindestens ein i ∈ 1, ..., n, steigt mindestens ein Zustand der
Systemlösung mit der Zeit an (siehe Abbildung 3.3).

Abbildung 3.3: Zeitverlauf eines zweidimensionalen Systems mit den einfachen, reellen
Eigenwerten λ1 = 0.41, λ2 = 0.43 und den Anfangswerten x1 (0) = x2 (0) = 1.

3.1.2.2 Typ 2: Mehrfache, reelle Eigenwerte

Wir nehmen eine minimale Änderung der Parameterwerte des eben behandelten Bei-
spiels vor und analysieren die Unterschiede. Wir ändern den Wert des Dämpfungsko-
effizienten d1 zu

d 1 = 2 c1 + c2 − d 2 .
3.1. LÖSUNG AUTONOMER SYSTEME 63

Alle anderen Parameterwerte lassen wir unverändert. Das autonome System ergibt sich
dann zu:     
d x1 0 1
√ x1 (t)
= (3.28)
dt x2 t
−11 −2 11 x2 (t)
Die Eigenwertzerlegung AV = V Λ gibt die Eigenwert- und Eigenvektormatrizen
   
−3.3166 0 0.289 −0.289
Λ= , V = . (3.29)
0 −3.3166 −0.957 0.957

Es ist einfach zu erkennen, dass ein doppelter Eigenwert λ = λ1 = λ2 vorliegt. Gleich-


zeitig ist die Matrix V singulär! Das ist problematisch, weil die Matrix V invertiert
werden muss, um die Lösungsgleichung (3.21) anwenden zu können. Zu einer singulä-
ren Matrix existiert jedoch keine Inverse V −1 ! Die Lösung durch Eigenwertzerlegung
gemäß Gleichung (3.21) ist daher im Fall ki -facher Eigenwerte λi (für ki > 1) meist
nicht möglich. Daher greift man auf Jordan-Blöcke der Form
 
λi 1 0 ... 0
 0 λi 1 0 . . . 0 
 .. . . . . . . . . .. 
 
 .
Ji =  . . . . .  (3.30)


 0 

 1 
0 ... 0 λi

mit
Ji ∈ Rki ×ki
zurück. Dabei ist zu beachten, dass die Dimension des Jordan-Blockes Ji davon ab-
hängt, wieviele generalisierte Eigenvektoren zu einem unabhängigen Eigenvektor eines
mehrfachen Eingenwertes, gehören. Mit einer gegebenenfalls noch zu bestimmenden
regulären Matrix Q führt dies wie gehabt zur Lösung

x(t) = QeJt Q−1 x0 (3.31)

wobei  
t2 tki −1
1 t 2!
... (ki −1)!
tki −2
 
 1 t ... (ki −2)!

.. (3.32)
 
eJi t λi t 
=e  .
.

 
 t 
1
Durch Umformulieren ergibt sich für den allgemeinen Fall von r reellen Eigenwerten λi
mit der zugehörigen Größe des Jordan-Blockes ki die allgemeine Lösung
ki
r X
X
At
x(t) = e x0 = tj−1 eλi t cij , (3.33)
i=1 j=1
64 KAPITEL 3. KONTINUIERLICHE LINEARE SYSTEME

wobei cij Spaltenvektoren der Dimension i=1 ki sind, deren Elemente sowohl von
Pr
der Transformationsmatrix Q als auch vom Anfangswert x0 abhängen. Der allgemeine
Beweis dieser Gleichung ist recht kompliziert und soll hier nicht ausgeführt werden. Er
findet sich z.B. bei Unbehauen (1993), ab Seite 86.

Lösungseigenschaften

Beim Vergleich der allgemeinen Lösung (3.33) mit der Lösung von linearen autonomen
Systemen mit einfachen, rellen Eigenwerten (3.26) fällt sofort auf, dass in Gleichung
(3.33) die Zeit nicht nur als Exponent auftritt, sondern auch als Koeffizient der Expo-
nentialfunktionsterme. Die Auswirkungen dieses Unterschiedes verdeutlichen wir uns
im Folgenden am Beispiel eines zweidimensionalen Systems mit einem doppelten Ei-
genwert λ, also n = 2, r = 1, k = 2. Dann ist
   λt 
λ 1 e teλt
J= , Jt
e = (3.34)
0 λ 0 eλt

In der Lösung x(t) kommen somit Linearkombinationen von eλt und teλt vor. Dieses
Verhalten ist bereits bekannt aus der Lösung linearer Differentialgleichungen zweiter
Ordnung:
aẍ(t) + bẋ(t) + cx(t) = 0 (3.35)
Während sich dort bei zwei einfachen Eigenwerten λ1 6= λ2 die Lösung

x(t) = c11 eλ1 t + c21 eλ2 t (3.36)

ergibt, erhält man bei doppeltem Eigenwert λ = λ1 = λ2 die Lösung

x(t) = c11 eλt + c12 teλt . (3.37)

Betrachten wir nun den Fall λ = λ1 = 0, λ2 < 0. Wir wissen bereits, dass für diesen Fall
die Lösung x(t) von Gleichung (3.36) für t → ∞ beschränkt ist, denn sie konvergiert
gegen c11 . Die Lösung von Gleichung (3.37) hingegen ist aufgrund des Vorhandenseins
der Zeit t als Koeffizient der Exponentialfunktion für große Zeiten unbeschränkt. Wie
wir später in Abschnitt 3.4.2 sehen werden, spielt dieser Unterschied für die Stabilität
eines Systems eine große Rolle.

3.1.2.3 Typ 3: Konjugiert komplexes Eigenwert-Paar

Betrachten wir nun erneut das Radaufhängungsbeispiel 3.1. Für das autonome Rad-
aufhängungsmodell, Gleichung (3.22), wählen wir nun eine kleine Dämpfung d1 = 0.1.
Damit ergibt sich die Systemmatrix
 
0 1
A= . (3.38)
−11 −1.1
3.1. LÖSUNG AUTONOMER SYSTEME 65

Abbildung 3.4: Simulation der Radaufhängung für ein Paar konjugiert-komplexer Ei-
genwerte mit negativem Realteil: λ = −0.55 ± 3.27i.

Die Eigenwertzerlegung liefert die Matrizen der Eigenwerte und der Eigenvektoren
   
−0.55 + 3.27i 0 a + bi 0
Λ= = (3.39)
0 −0.55 − 3.27i 0 a − bi
 
−0.0479 − 0.284i −0.0479 + 0.284i
V = . (3.40)
0.957 0.957

Es zeigt sich, dass A ein Paar konjugiert komplexer Eigenwerte hat, zu denen konju-
giert komplexe Eigenvektoren gehören. Eine Simulation des dynamischen Verhaltens
(Abbildung 3.4) zeigt außerdem einen grundsätzlich anderen Zeitverlauf als im Fall von
Typ 1, wo einfache, reelle Eigenwerte vorliegen (vgl. Abbildung 3.1). Während im Fall
einfacher, reeller Eigenwerte die anfängliche Auslenkung der Zustandsgrößen x1 und
x2 direkt abklingt, sind jetzt deutliche Schwingungen zu erkennen. Man sagt auch, das
System oszilliert.
Da V invertierbar ist, kann die Lösung aus Gleichung (3.21) ermittelt werden. Man
erhält  (a+bi)t 
e 0
Λt −1
x(t) = V e V x0 = V V −1 x0 . (3.41)
0 e(a−bi)t
Mit der aus der Lehrveranstaltung Höhere Mathematik (Jongen 2003) bekannten Euler-
Formel

eit = cos(t) + i sin(t) ⇒ eλt = e(a+bi)t = eat ebit = eat (cos(bt) + i sin(bt)) (3.42)

ergibt sich
 
eat (cos(bt) + i sin(bt)) 0
Ve VΛt −1
=V at V −1 . (3.43)
0 e (cos(bt) − i sin(bt))
66 KAPITEL 3. KONTINUIERLICHE LINEARE SYSTEME

Eine weitere Umformung ist möglich, um statt der komplexen Matrizen Λ und V reelle
zu erhalten. Es ergibt sich die Darstellung
 
cos(bt) sin(bt)
Λt −1
V e V = Te at
T −1 , (3.44)
− sin(bt) cos(bt)
die wir nachfolgend herleiten.

Herleitung der Transformationsmatrix T

Ausgehend von den Gleichungen (3.40) und (3.43) führen wir die konjugiert komplexen
Eigenvektoren v und v̄ gemäß 
V = v v̄
ein. Dabei bedeutet der Überstrich „komplex konjugiert“. Somit gilt für V −1 die
Schreibweise  T 
−1 w
V = .
w̄T
Dann definieren wir die Hilfsmatrizen
   
1+i 1−i −1 1−i 1+i
E = 0.5 E = 0.5
1−i 1+i 1+i 1−i
und schreiben Gleichung
 (3.43) nun als  
at
Λ −1
 e [cos(bt) + i sin(bt)] 0 w
V e tV = v v̄
 at 0 eat [cos(bt) − i sin(bt)]
 w̄ 
 −1 e [cos(bt) + i sin(bt)] 0 −1 w
= v v̄ E E E E
| {z } 0 eat [cos(bt) − i sin(bt)] w̄
T | {z }
  T −1
 at cos(bt) sin(bt)
= Re(v) − Im(v) Re(v) + Im(v) e
| {z } − sin(bt) cos(bt)
 T 
Re(w) − Im(w)
· .
Re(w) + Im(w)
| {z }
T −1
Die Gleichung (3.44) ist damit gezeigt. Man beachte den leicht zu übersehenden Un-
terschied zwischen

V = Re(v) + iIm(v) Re(v) − iIm(v) und




T = Re(v) − Im(v) Re(v) + Im(v) .

Damit sieht die allgemeine Lösung im Fall eines konjugiert komplexen Eigenwertpaares
wie folgt aus:  
cos(bt) sin(bt)
x(t) = T eat
T −1 x0 . (3.45)
− sin(bt) cos(bt)
3.1. LÖSUNG AUTONOMER SYSTEME 67

Beispiel 3.2 (Radaufhängung). Für die Radaufhängung mit kleinem Dämpfungskoef-


fizienten d1 = 0.1 ergibt sich nun die allgemeine Lösung

x(t) =
    
0.237 −0.332 −0.55t cos(3.27t) sin(3.27t) 1.75 0.610
e x(t0 ).
0.957 0.957 − sin(3.27t) cos(3.27t) −1.75 0.434
(3.46)
Für die speziellen Anfangswerte
 
1
x(t0 ) =
1

erhält man
      
x1 (t) −0.55t 1 0.474
x(t) = = e| {z } cos(3.27t) + sin(3.27t) .
x2 (t) 1 −3.531
Dämpfungsterm | {z }
Oszillationsterm
(3.47)
Anhand der analytischen Lösung lässt sich nun der Verlauf der Lösung in Abbildung
3.5 erklären: Die Sinus-/Cosinus-Terme verursachen die Schwingungen, während der
Exponentialterm für das Abklingen bzw. die Dämpfung der Schwingung verantwortlich
ist. Letzteres ist gut an der exponentiell abnehmenden Lösungseinhüllenden (fette Linie)
zu erkennen.

Beschäftigen wir uns nun mit der Frage, ob Gleichung (3.45) äquivalent zu Gleichung
(3.15) ist. Dazu muss der Ausdruck
 
at cos(bt) sin(bt)
e
− sin(bt) cos(bt)

in Gleichung (3.45) geschrieben werden als eJt mit dem reellen Jordan-Block :
   
a b Re(λ) Im(λ)
J= =
−b a −Im(λ) Re(λ)

Tatsächlich gilt  
  
a b t
cos(bt) sin(bt) −b a
eat =e . (3.48)
− sin(bt) cos(bt)
Der folgende Beweis wird dies zeigen.
Allgemein gilt mit λ = a + ib die Identität
 k  k  
a b Re(λ) Im(λ) Re(λk ) Im(λk )
= = . (3.49)
−b a −Im(λ) Re(λ) −Im(λk ) Re(λk )
68 KAPITEL 3. KONTINUIERLICHE LINEARE SYSTEME

4
x 2(t)
3 x 2(t): Dämpfungsterm
damping term
x 2(t): Oszillationsterm
oscillating term
2

-1

-2

-3

-4
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
t

Abbildung 3.5: Simulation der Radaufhängung - Zeitverlauf der Lösungskomponente


x2 aus Abbildung (3.4) im Detail.

Wir zeigen die Gültigkeit nur beispielhaft für k = 2 und nutzen dabei λ2 = a2 −b2 +2abi:
 2
a b
=
−b a
    2   
a b a b a − b2 2ab Re(λ2 ) Im(λ2 )
= = (3.50)
−b a −b a −2ab a2 − b2 −Im(λ2 ) Re(λ2 )
Mit Gleichung (3.49) folgt für (3.48) somit
 
a b t ∞ k k k k
!
Re( λk!t ) Im( λk!t )

e −b a =
X
. (3.51)
k k k k

k=0
−Im( λk!t ) Re( λk!t )

Durch das elementweise Anwenden der Summe und mit der Definition der skalaren
Exponentialfunktion erhält man
∞ k k k k
! 
Re( λk!t ) Im( λk!t )

X Re(eλt ) Im(eλt )
k k k k = . (3.52)
−Im( λk!t ) Re( λk!t ) −Im(eλt ) Re(eλt )
k=0

Mit der Euler-Formel - Gleichung (3.42) - folgt schließlich


   
Re(eλt ) Im(eλt ) cos(bt) sin(bt)
=e at
. (3.53)
−Im(eλt ) Re(eλt ) − sin(bt) cos(bt)
3.1. LÖSUNG AUTONOMER SYSTEME 69

Abbildung 3.6: Simulation für ein Paar konjugiert-komplexer Eigenwerte mit negativem
Realteil (λ = −0.55 ± 3.27i).

Lösungseigenschaften bei komplexen Eigenwerten

Wir betrachten erneut den Spezialfall n = 2. Im Falle eines konjugiert-komplexen Ei-


genwertpaares λ1 = a + bi, λ2 = a − bi sieht die in (3.47) angedeutete Lösungsstruktur
folgendermaßen aus:
x(t) = eat (m1 cos(bt) + m2 sin(bt)) (3.54)

• Ein gedämpftes, abklingendes Verhalten ergibt sich, wenn für den Realteil der
Eigenwerte gilt: Re(λi ) = a < 0. Eine qualitative Darstellung des Lösungsverlaufs
findet sich in Abbildung 3.6.

• Periodische Dauerschwingungen hingegen lassen sich auf Re(λi ) = a = 0 zurück-


führen, siehe Abbildung 3.7.

• Aufklingende Schwingungen sind charakteristisch für Re(λi ) = a > 0, siehe Ab-


bildung 3.8.

3.1.2.4 Zusammenfassung

Das autonome lineare System

ẋ(t) = Ax(t) x(t0 = 0) = x0 besitzt die Lösung x(t) = eAt x0 , (3.55)

die in Abhängigkeit von der Art der auftretenden Eigenwerte spezialisiert werden kann.
Für n = 2 ergeben sich insbesondere die folgenden 3 Fälle:
70 KAPITEL 3. KONTINUIERLICHE LINEARE SYSTEME

Abbildung 3.7: Simulation für ein Paar konjugiert-komplexer Eigenwerte mit Realteil
gleich Null (λ = 0 ± 3.32i).

Abbildung 3.8: Simulation für ein Paar konjugiert-komplexer Eigenwerte mit positivem
Realteil (λ = 0.05 ± 3.32i).
3.2. LÖSUNG NICHT-AUTONOMER SYSTEME 71

• Fall 1: λ1 6= λ2 (einfache, reelle Eigenwerte)


 λt 
e 1 0
x(t) = V V −1 x0 = V eΛt V −1 x0 (3.56)
0 e λ2 t

• Fall 2: λ1 = λ2 = λ (doppelte, reelle Eigenwerte)


 
  λ 1 t
eλt teλt

x(t) = Q −1
Q x0 = Qe 0 λ Q−1 x0 (3.57)
0 eλt

• Fall 3: λ1 = a + ib, λ2 = a − ib (komplexe Eigenwerte)


 
  
a b t
cos(bt) sin(bt) −b a
x(t) = T e at
T −1
x0 = T e T −1 x0 (3.58)
−sin(bt) cos(bt)

Für den allgemeinen Fall n > 2 verweisen wir auf die weiterführende Literatur, z.B.
auf Unbehauen (1993).

3.2 Lösung nicht-autonomer Systeme


In den vorangegangenen Abschnitten hatten wir mehrfach das Beispiel der autonomen
Radaufhängung aufgegriffen, um verschiedene Typen der Eigenwertkonstellationen zu
untersuchen. Nun möchten wir uns mit der nicht-autonomen Situation beschäftigen,
die sich im Fall der Radaufhängung aus einer Anregung durch eine unebene Straße
ergibt (vergleiche Abbildung 2.5).
Dazu wollen wir zunächst die allgemeine analytische Lösung nicht-autonomer linearer
Systeme berechnen, um den Einfluss der nicht verschwindenden Eingangsgröße auf
das Systemverhalten verstehen zu können. Ausgehend von der allgemeinen Darstellung
nicht-autonomer linearer Systeme (Gleichung (2.16)), ergibt sich die Lösung durch eine
Reihe von Umformungen. Beginnend mit
ẋ(t) = Ax(t) + Bu(t) ⇔ ẋ(t) − Ax(t) = Bu(t) (3.59)
multiplizieren wir beide Seiten der Gleichung mit e−At und nutzen die Produktformel,
d −At
e−At [ẋ(t) − Ax(t)] = e−At Bu(t) ⇔ [e x] = e−At Bu(t), (3.60)
dt t

und integrieren anschließend:


Z t Z t
d −Aτ
[e x] dτ = e−Aτ Bu(τ )dτ (3.61)
0 dτ τ 0
Z t
e−At x(t) − x(0) = e−Aτ Bu(τ )dτ. (3.62)
0
72 KAPITEL 3. KONTINUIERLICHE LINEARE SYSTEME

Eine weitere Multiplikation mit eAt liefert die Lösung des nicht-autonomen Systems
Z t
At
x(t) = e x0 + eA(t−τ ) Bu(τ )dτ. (3.63)
0

Bei näherer Betrachtung dieser Gleichung stellt man fest, dass die Lösung des auto-
nomen Systems, x(t) = eAt x0 , ein fester Bestandteil der Lösung des nicht-autonomen
Systems (Gleichung (3.63)) ist! Diese Erkenntnis deutet bereits an, was wir später in
Abschnitt 3.4.3 noch genauer untersuchen werden: Wir werden feststellen, dass be-
stimmte Eigenschaften des autonomen Systems Einfluss auf die Eigenschaften des zu-
gehörigen nicht-autonomen Systems haben.
Tatsächlich gilt das sogenannte Superpositionsprinzip (Föllinger und Franke 1982) bei
linearen Systemen, wonach sich eine allgemeine Lösung aus den beiden Bestandteilen
der homogenen Lösung xh (t) und der partikulären Lösung xp (t) zusammensetzt:
Z t
x(t) = e A(t−t0 )
x + eA(t−τ ) Bu(τ )dτ (3.64)
| {z }0 0
homogene Lösung xh (t) | {z }
partikuläre Lösung xp (t)

Dabei bestimmen die bei autonomem und nicht-autonomem System identischen An-
fangsbedingungen des Systems die homogene Lösung (Abbildung 3.9), während die nur
bei nicht-autonomen Systemen vorhandenen Eingangsgrößen die partikuläre Lösung
hervorrufen (Abbildung 3.10).
Beispiel 3.3 (Radaufhängung). Bereits in Beispiel 2.5 wurde das nicht-autonome Mo-
dell in Zustandsdarstellung durch Gleichung (2.22) gegeben. Für den speziellen Para-
metersatz (3.23) erhält man so die Gleichung
       
d x1 0 1 x1 (t) 0 0 u1 (t)
= + . (3.65)
dt x2 t
−11 −6.7 x2 (t) 10 1 u2 (t)
Mithilfe des Eingangs u(t) modellieren wir nun die in Abbildung 3.11 dargestellte stu-
fenförmige Erhöhung in der Straßenoberfläche
   
u1 (t) 0
= für t ≤ 3s (3.66)
u2 (t) 0
   
u1 (t) 1
= für t > 3s. (3.67)
u2 (t) 0
 
0
Für den Anfangszustand x(0) = ergibt sich die Lösung aus Gleichung (3.63)
0
zu
Z t
4.05e−2.878(t−τ ) − 3.05e−3.822(t−τ ) 1.06(e−2.878(t−τ ) − e−3.822(t−τ ) )

x(t) =
0 11.66(−e−2.878(t−τ ) + e−3.822(t−τ ) ) −3.05e−2.878(t−τ ) + 4.05e−3.822(t−τ )
 
0
· dτ
10u1 (τ ) + u2 (τ )
(3.68)
3.2. LÖSUNG NICHT-AUTONOMER SYSTEME 73

Abbildung 3.9: Einfluss der Anfangsbedingungen bei verschwindenden Eingangsgrößen.

Abbildung 3.10: Einfluss der Eingangsgrößen bei verschwindenden Anfangsbedingun-


gen
74 KAPITEL 3. KONTINUIERLICHE LINEARE SYSTEME

Abbildung 3.11: Simulation einer stufenförmigen Erhöhung im Straßenprofil (Beispiel


3.3)

Durch Aufteilen des Integrals in die beiden Zeiträume t ≤ 3 s und t > 3 s erhält man
schließlich die Reaktion des Systems auf die stufenförmige Straßenerhöhung,
 
0
x(t) = für t ≤ 3s (3.69)
0
Z t
1.06(e−2.878(t−τ ) − e−3.822(t−τ ) )

x(t) = 10 dτ für t > 3s (3.70)
3 −3.05e−2.878(t−τ ) + 4.05e−3.822(t−τ )
−2.878(t−3) −3.822(t−3)
 1.06 1.06

(1 − e ) − (1 − e )
= 10 2.878 3.822 , (3.71)
3.05
2.878
(1 − e−2.878(t−3) ) − 3.822
4.05
(1 − e−3.822(t−3) )
welche in Abbildung 3.12 grafisch dargestellt ist.
Abschließend sei noch darauf hingewiesen, dass in Abbildung 3.12 nur die partikuläre
Lösung sichtbar ist. Dies liegt an der speziellen Wahl der Anfangsbedingungen in diesem
Beispiel zu Null, wodurch die homogene Lösung verschwindet.

3.3 Ruhelagen
Wir betrachten nun die Ruhelagen linearer Systeme. Aus Kapitel 2 Gleichung (2.16)
erinnern wir uns an die Zustandsdarstellung des linearen Systems, die wir nun zur
Bestimmung der Ruhelage zu Null setzen.
dx
= Ax(t) + Bu(t) = 0 (3.72)
dt t
Setzen wir die zweite Bedingung für eine Ruhelage ein, nämlich, dass der Eingang
u = uR = const. ist, so erhalten wir ein lineares Gleichungssystem:
AxR = −BuR (3.73)
3.3. RUHELAGEN 75

Abbildung 3.12: Simulation der Radaufhängung mit Straßenanregung zum Zeitpunkt


t = 3s (Beispiel 3.3)

Die rechte Seite ist gegeben und kann zu dem Vektor br = −Bur zusammengefasst
werden.
Wir beschäftigen uns nun mit der Frage, welche Eigenschaften die Matrix A haben
muss, damit überhaupt eine eindeutige Ruhelage existiert. Zur Antwort auf diese Fra-
gestellung müssen wir einen kleinen Exkurs in die Theorie der linearen algebraischen
Gleichungssysteme machen.

3.3.1 Existenz und Eindeutigkeit der Ruhelagen


Aus der Höheren Mathematik (Jongen 2003) ist die Lösung eines allgemeinen linearen
Gleichungssystems bekannt:
Ax = b (3.74a)
x = A−1 b (3.74b)
Die hierfür notwendige Invertierbarkeit von A ist nur gegeben wenn die Matrix qua-
dratisch ist und vollen Rang hat. Dies lässt sich durch Überprüfung der Determinante
von A bestimmen:
Fall 1: det(A) 6= 0 ⇔ das Gleichungssystem ist eindeutig lösbar
Fall 2: det(A) = 0 ⇔ eine eindeutige Lösbarkeit ist nicht gegeben
Damit sind wir in der Lage, eine eindeutige Aussage über die Existenz von Ruhelagen
für lineare Systeme zu treffen.
Satz 3.2 (Ruhelagen bei regulärer Systemmatrix). Eine eindeutige Ruhelage xR exis-
tiert dann und nur dann, wenn A vollen Rang hat! Dann kann Gleichung 3.74a nach
xR aufgelöst werden.
76 KAPITEL 3. KONTINUIERLICHE LINEARE SYSTEME

Auch diesen Zusammenhang führen wir uns nachfolgend an einem praktischen Beispiel
vor Augen.
Beispiel 3.4 (Existenz und Eindeutigkeit von Ruhelagen). Gegeben sei das folgende
System in Zustandsdarstellung:

ẋ1 (t) = u(t) (3.75a)


ẋ2 (t) = x1 (t) − τ x2 (t) + u(t) (3.75b)

In Matrix-Vektor-Schreibweise ergibt sich äquivalent


      
ẋ1 (t) 0 0 x1 (t) 1
= + u(t). (3.76)
ẋ2 (t) 1 −τ x2 (t) 1
 
0 0
Eine Analyse der Systemmatrix A = ergibt:
1 −τ

det(A) = 0 ⇔ A ist rangdefekt bzw. singulär ⇔ A−1 existiert nicht

Folglich existiert keine eindeutige Ruhelage. Wir möchten nun ermitteln, ob es keine
oder mehrere stationäre Lösungen geben kann. Dazu führen wir eine Fallunterscheidung
ein:

Fall 1: uR 6= 0

Setzen wir einen beliebigen konstanten Eingang uR 6= 0 in die Gleichung


(3.75a) unseres Systems ein, erhalten wir ẋ1 (t) = uR 6= 0. Damit ergibt sich ein
Widerspruch zur Bedingung für eine Ruhelage nach Gleichung (2.27). Es kann
also in diesem Fall keine stationäre Lösung geben.
Fall 2: uR = 0

Setzen wir dagegen ur = 0 in das Gleichungssystem (3.75) ein, ergibt sich

ẋ1 (t) = 0
ẋ2 (t) = x1,R − τ x2,R = 0

Diese Gleichungen erfüllen die Bedingung für eine Ruhelage, falls gilt x1,R =
τ x2,R . Damit ergeben sich hier unendlich viele stationäre Lösungen.

Allgemein lässt sich die folgende Bedingung für Ruhelagen linearer dynamischer Sys-
teme formulieren:
Satz 3.3 (Ruhelagen bei singulärer Systemmatrix). Wenn A keinen vollen Rang hat,
ist es möglich, dass entweder keine oder unendlich viele stationäre Lösungen existieren.
Hat A dagegen vollen Rang, so existiert genau eine Ruhelage.
3.3. RUHELAGEN 77

qein

qaus = 0
h

Tank

Abbildung 3.13: Tank mit geschlossenem Abflussventil

3.3.2 Lineare Systeme mit integrierendem Verhalten


Das in obigem Beispiel 3.4 behandelte System zeichnet sich durch sogenanntes integrie-
rendes Verhalten aus. Zur Veranschaulichung betrachten wir im Folgenden ein anderes
einfaches Beispiel mit physikalischem Hintergrund, welches ebenfalls Integratorverhal-
ten zeigt.
Wir betrachten einen Tank (Abbildung 3.13) mit der Querschnittsfläche AT ank , in den
der Zulaufvolumenstrom qein eintritt, aus dem aber wegen eines geschlossenen Abfluss-
ventils (qaus = 0) kein Strom austreten kann. Die Modellgleichung dieses Tanks lautet
dh qein (t)
= , h(t0 ) = h0 (3.77)
dt t AT ank

Es handelt sich bei der Gleichung (3.77) um eine lineare Differentialgleichung 1. Ord-
nung, bei der die zeitliche Ableitung des Füllstandes auf der linken Seite und nur die
Eingangsgröße qein und nicht die Zustandsgröße h auf der rechten Seite steht. Die Sy-
stemmatrix A = 0 ist also singulär. Genau das zeichnet ein System mit integrierendem
Verhalten aus. Bestimmt man die Lösung
Z t
1
h(t) = h0 + qein (τ )dτ (3.78)
AT ank 0
und betrachtet wieder die zwei möglichen Fälle, kommt man zu folgendem Schluss:

Fall 1: qein 6= 0

Mit wachsender Zeit wird der Füllstand immer weiter ansteigen (vergleiche Ab-
bildung 3.14); es stellt sich kein stationärer Zustand ein.
Fall 2: qein = 0

Es strömt kein Fluid in den Tank nach, der Füllstand ändert sich offen-
sichtlich nicht mehr.
78 KAPITEL 3. KONTINUIERLICHE LINEARE SYSTEME

Abbildung 3.14: Verlauf des Füllstandes bei konstantem Zulauf qein

Diese Charakteristik gibt dem integrierenden Verhalten seinen Namen. Es zeichnet


sich dadurch aus, dass ein Zustand nur durch die Eingangsgröße angetrieben wird.
Grundsätzlich gilt:

Satz 3.4 (Integratorverhalten). Rangdefekte Systemmatrizen A führen zu einem inte-


grierenden Einfluss von u auf x.

3.4 Stabilität

Eine weitere wichtige Systemeigenschaft ist die Stabilität; sie ist in vielen Fällen ent-
scheidend für den Nutzen bzw. die Gefahr, die von einem System ausgeht. Wir be-
schäftigen uns zunächst mit ihrer Definition und deren Bedeutung und geben dann
Methoden zur Stabilitätsanalyse an.

3.4.1 Allgemeine Definition

Definition 3.1 (Stabilität). Ein System wird stabil genannt, wenn es für jede mögliche
Region mit Radius  > 0 um eine Ruhelage xR eine Umgebung δ > 0 gibt, so dass für
alle Anfangswerte x(t0 ) = x0 mit |x0 − xR | < δ (sogenannte δ-Umgebung von xR ),
die Lösung x(t) für t > t0 die Bedingung |x(t) − xR | <  (-Umgebung von xR ) erfüllt
(Unbehauen 1993).

Zur Erläuterung dieser Definition ziehen wir Abbildung 3.15 heran. In dieser Darstel-
lung ist die -Umgebung der Ruhelage xR als ein kreisförmiges Gebiet mit Radius  um
die Ruhelage xR eingezeichnet. Auch die δ-Umgebung der Ruhelage xR ist als Kreis
eingetragen. Nach der Definition zeichnen sich stabile Systeme dadurch aus, dass für
Startwerte innerhalb der δ-Umgebung die Lösung des Systems für alle Zeiten immer in
der -Umgebung bleibt, also nie den äußeren Kreis überschreitet.
3.4. STABILITÄT 79

Abbildung 3.15: Anschauliche Definition der Stabilität


x0

 xR

Abbildung 3.16: Anschauliche Definition der asymptotischen Stabilität

Definition 3.2 (Asymptotische Stabilität). Wenn das Systemverhalten die Voraus-


setzungen von Definition 3.1 erfüllt und darüber hinaus asymptotisch gegen xR strebt,
wenn also x(t → ∞) = xR gilt, bezeichnet man das System als asymptotisch stabil.

In Abbildung 3.16 ist dieses asymptotisch stabile Verhalten daran zu erkennen, dass
die Lösung des Systems für große Zeiten auf die Ruhelage xR zusteuert. Wie können
wir also entscheiden, ob ein System stabil ist oder nicht? Ist dazu wirklich immer
die exakte Kenntnis der Lösung x(t) nötig? Im Folgenden werden wir zeigen, dass für
lineare autonome Systeme die Analyse der Eigenwerte ausreicht, um eine Aussage über
die Stabilität zu treffen.
80 KAPITEL 3. KONTINUIERLICHE LINEARE SYSTEME

3.4.2 Stabilität linearer autonomer Systeme

Die Untersuchung der Stabilität linearer autonomer Systeme ist äquivalent zu der Fra-
ge, ob die Lösung des autonomen Systems ẋ = Ax beschränkt ist. Diese Lösung hatten
wir bereits zu
Xr Xki
x(t) = eAt x0 = QeJt Q−1 x0 = tj−1 eλi t cij (3.79)
i=1 j=1

bestimmt (vgl. Gleichung (3.33)), wobei ki die Mehrfachheit des Eigenwerts λi ist.
Wir sehen sofort, dass die Lösung genau dann beschränkt ist, wenn Re(λi ) ≤ 0, und
wenn jeder Eigenwert mit Re(λi ) = 0 die Mehrfachheit ki = 1 hat. Wendet man die
Dreiecksungleichung auf die Norm der Gleichung (3.79) an, ergibt sich

kx(t)k = eAt x0 ≤ QeJt Q−1 · kx0 k . (3.80)


| {z }
≤K<∞

Wenn die Norm der Fundamentalmatrix durch die Konstante K beschränkt ist und
 − 1
δ= (3.81)
K
mit 0 < 1 <  gewählt wird, ist gemäß Unbehauen (1993) für alle kx0 k < δ die Lösung

 − 1
kx(t)k ≤ K( ) < . (3.82)
K
Diesen Zusammenhang verdeutlichen wir anhand eines 2 × 2-Systems. Es gilt

eAt = QeJt Q−1 ≤ kQk · eJt · Q−1 (3.83)

mit
kQk ≤ ∞, Q−1 ≤ ∞.
Wir wählen nun die spezielle „unendlich“-Norm oder auch „Zeilensummennorm“ für
Matrizen:
Xn
kAk∞ = max |ai,j |. (3.84)
i
j=1

Dann ist eJt in Abhängigkeit der Eigenwerte gegeben durch:

• Reelle einfache Eigenwerte λ1,2 < 0 und t ≥ 0:


 
eλ1 t 0
Jt
= max eλ1 t , eλ2 t ≤ 1 (3.85)

e =
∞ 0 eλ2 t ∞
3.4. STABILITÄT 81

• Reelle mehrfache Eigenwerte λ1 = λ2 = λ < 0 und t ≥ 0:


 λt   
Jt e teλt λt λt
 1 −(λ+1)
e ∞= = max (1 + t) e , e ≤ max − e ,1
0 eλt ∞ λ
(3.86)
Anmerkung: Die angegebene obere Schranke − λ e1 −(λ+1)
ergibt sich als Maximum
des Ausdrucks (1 + t) e durch Differenzieren, Setzen der Ableitung zu Null und
λt

Auflösen nach t. Man erhält so das resultierende Maximum an der Stelle t =


− 1+λ
λ
.

• Komplexe Eigenwerte λ1,2 = a ± bi, a < 0 und t ≥ 0:


 
Jt at cos (bt) sin (bt)
e ∞= e ∞·
− sin (bt) cos (bt) ∞ (3.87)

= eat (cos (bt) + sin (bt)) ≤ 2

Für alle betrachteten Fälle ist die Norm der Fundamentalmatrix beschränkt und damit
das System stabil, wenn die Eigenwerte negativen Realteil aufweisen.
Zuletzt wollen wir noch ein Beispiel für eine stabile Konstellation des Systems der Rad-
aufhängung (Beispiel 3.2) betrachten. Für den Fall kleiner Dämpfung d1 = 0.1 ergab
sich ein Paar konjugiert-komplexer Eigenwerte mit negativem Realteil. Die Lösung in
Gleichung (3.47) hatte dabei die Form

x(t) = eat (m1 · cos(bt) + m2 · sin(bt)) . (3.88)

Wir nehmen eine Abschätzung dieser Gleichung (3.88) vor, um die Lösungseinhüllende
anhand der analytischen Lösung erkennen zu können. Dazu bilden wir den Betrag der
Gleichung (3.88), wenden die Dreiecksungleichung an und berücksichtigen die Eigen-
schaften der trigonometrischen Funktionen. Dann erhält man die Abschätzung

|x(t)| ≤ eat (|m1 | + |m2 |) . (3.89)

Innerhalb dieses Korridors, der auch in Abbildung 3.17 zu erkennen ist, wird sich die
Lösung bewegen. Sie wird ihn jedoch nie überschreiten. Das System ist stabil.
Dieser Zusammenhang wurde auch in Abbildung 3.18 leicht verändert in Anlehnung an
die Definition der Stabilität dargestellt. Deutlich ist zu erkennen, dass das System für
große Zeiten auf eine Ruhelage zusteuert und die -Umgebung auf dem Weg dorthin
nicht verlässt.
Abschließend lässt sich festhalten, dass wir nun in der Lage sind, autonome Systeme
hinsichtlich ihres qualitativen Verhaltens bewerten zu können, ohne dass wir sie analy-
tisch lösen oder simulieren. Es hat sich gezeigt, dass die Eigenwertanalyse der Schlüssel
zur Systemanalyse und -bewertung linearer Systeme ist.
82 KAPITEL 3. KONTINUIERLICHE LINEARE SYSTEME

Abbildung 3.17: Simulation der Radaufhängung aus Beispiel 3.2 für den stabilen Fall.
Die Anfangswerte sind x1 (0) = x2 (0) = 1.


x0

 x ss

Abbildung 3.18: Simulation der Radaufhängung aus Beispiel 3.2 für den stabilen Fall
in modifizierter Darstellung und den Anfangswerten x1 (0) = x2 (0) = 1.
3.4. STABILITÄT 83

Abbildung 3.19: Simulation der Lösung bei zeitvariantem Eingang aus Beispiel 3.2.

3.4.3 Stabilität nicht-autonomer linearer Systeme

Kehren wir zur allgemeinen analytischen Lösung (3.63) für nicht-autonome lineare
Systeme zurück. Für konstante Eingänge uR folgt
Z t Z t
At
x(t) = e x0 + A(t−τ )
e At
BuR dτ ⇒ x(t) = e x0 + eA(t−τ ) dτ · BuR . (3.90)
0 0

Nach Durchführung der Integration erhält man

x(t) = eAt [x0 + A−1 BuR ] − A−1 BuR . (3.91)

Wenn das System für uR = 0 stabil ist, gilt

t→∞: eAt [x0 + A−1 BuR ] → 0 und x(t) → xR := −A−1 BuR .

Für große Zeiten strebt das System also in die Ruhelage des nicht-autonomen Systems,
die nur von der Wahl der konstanten Eingangsgröße uR abhängt. Allgemeiner gilt:

Satz 3.5 (Stabilität nicht-autonomer Systeme). Wenn die Lösung des autonomen Sys-
tems stabil ist und u(t) beschränkt ist, dann ist auch die Lösung des dazu gehörigen
nicht-autonomen Systems stabil (Unbehauen 1993).

Auch für zeitvariante Eingänge hängt die Stabilität also nur von den Eigenschaften des
autonomen Systems ab. Für ein in Abbildung 3.19 simuliertes, stabiles System sieht
man deutlich, dass das System nach einer gewissen Einschwingphase der Anregung
durch den Eingang folgt.
84 KAPITEL 3. KONTINUIERLICHE LINEARE SYSTEME

3.4.4 Zusammenfassung

Grundsätzlich lassen sich folgende Stabilitätseigenschaften unterscheiden:

• stabil: Re(λi ) < 0, ∀i ∈ {1, . . . , n}

• grenzstabil: Re(λi ) = 0 für genau ein1 i und Re(λj ) < 0 ∀j ∈ {1, . . . , n}\{i}

• instabil: sonst.

Eine übersichtliche Darstellung kann man der Stabilitätskarte in Abbildung 3.20 ent-
nehmen.

Schnelleres Abklingen Schnelleres Aufklingen


Im

0<D<1

Zunehmende Frequenz
X
D=0

X X

D>0 D<0

1/T

T>0, D>=1 X X X X X Re

stabil instabil

grenzstabil

Abbildung 3.20: Stabilitätskarte: Stabilität linearer Systeme

1
 ist im Sinne dieser Definition nur ein i ! Aus
Achtung: Ein komplex konjugiertes Eigenwertpaar
dem Grund ist z.B. das 2-dimensionale System ẋ = 01 −1
0 x mit λ1,2 = 0 ± i grenzstabil.
3.4. STABILITÄT 85

Abel, D. (1990). Petri-Netze für Ingenieure. Modellbildung und Analyse diskret gesteu-
erter Systeme. Springer.

Bahill, A.T. und B. Gissing (1998). Re-evaluating systems engineering concepts using
systems thinking. IEEE Transactions on Systems, Man, and Cybernetics, Part C:
Applications and Reviews 28(4), S. 516 –527.

Bard, Y. (1974). Nonlinear Parameter Estimation. Academic Press New York.

Brenan, K.E., S.L. Campbell und L.R. Petzold (1996). Numerical Solution of Initial
Value Problems in Differential-Algebraic Equations. SIAM. Philadelphia, PA.

Bruns, M. (1991). Systemtechnik. Methoden zur interdisziplinären Systementwicklung.


Springer. Berlin.

Bunge, M. (1977). Treatise on Basic Philosophy. Vol. 3: Ontology I: The Furniture of


the World. D. Riedel. Dordrecht.

Bunge, M. (1979). Treatise on Basic Philosophy. Vol. 4: Ontology II: A World of Sys-
tems. D. Riedel. Dordrecht.

Cassandras, C.G. und S. Lafortune (1999). Introduction to Discrete Event Systems.


Kluwer.

Dahmen, W. und A. Reusken (2008). Numerik für Ingenieure und Naturwissenschaftler.


Springer.

David, R. und H. Alla (2005). Discrete, Continuous, and Hybrid Petri Nets. Springer.

DIN 60617-2 bis -11: Graphische Symbole für Schaltplän (1996). Beuth Verlag.

Diwekar, Urmila M. und Jayant R. Kalagnanam (1997). Efficient sampling technique


for optimization under uncertainty. AIChE Journal 43, S. 440–447.

Föllinger, O. (2008). Regelungstechnik. Hüthig Verlag, Verlagsgruppe Hüthig Jehle


Rehm GmbH, Heidelberg, München, Landsberg, Berlin.

Föllinger, O. und D. Franke (1982). Einführung in die Zustandsbeschreibung dynami-


scher Systeme. R. Oldenbourg. München.

Fritzson, Peter (2004). Principles of Object-Oriented Modeling and Simulation with


Modelica 2.1. IEEE Press. Wiley-Interscience. ISBN: 0-471-47163-1.

Gerdin, M. (2004). Computation of a canonical form for linear differential-algebraic


equations. Proceedings of Reglermöte (Swedish National Conference on Control),
Gothenburg, Sweden.
86 KAPITEL 3. KONTINUIERLICHE LINEARE SYSTEME

Gigch, J.P. van (1991). System Design Modeling and Metamodeling. Springer. New
York.

Gilles, E.D., P. Holl und W. Marquardt (1986). Dynamische Simulation komplexer


chemischer Prozesse. Chem. Ing. Tech. 58, S. 268–278.

Griepentrog, E. und R. März (1986). Differential-Algebraic equations and their nume-


rical treatment. Teubner-Texte Mathematik. Leipzig.

Hangos, K. M. und I. T. Cameron (2001). Process Modelling and Model Analysis.


Academic Press.

Hirsch, Morris W. (2004). Differential equations, dynamical systems and an introduc-


tion to chaos. Elsevier Academic Press.

J.C. Morud, S. Skogestad (1998). Analysis of instability in an industrial ammonia


reactor. AIChE Journal 44, S. 888–895.

Jerri, A.J. (1977). The Shannon sampling theorem — its various extensions and app-
lications: A tutorial review. Proc. IEEE 65, S. 1565–1596.

Jongen, H.Th. (2003). Vorlesungsskript zur Höheren Mathematik. Lehrstuhl C für Ma-
thematik, RWTH-Aachen.

Khalil, Hassan K. (2000). Nonlinear systems. Pearson Education.

Klir, G.J. (1985). Architecture of Systems Problem Solving. Plenum Press. New York.

Kramer, U. und M. Neculau (1998). Simulationstechnik. Fachbuchverlag Leipzig.

Lunze, J. (2006). Ereignisdiskrete Systeme: Modellierung und Analyse dynamischer Sys-


teme mit Automaten, Markovketten und Petrinetzen. Oldenbourg Wissenschafts-
verlag.

Marquardt, W. (2005). Simulationstechnik IV: Modellgestützte Schätzmethoden. Vorle-


sungsmanuskript. AVT-Prozesstechnik, RWTH Aachen.

Marquardt, W. (2010). Modellbildung und Analyse verfahrenstechnischer Prozesse. Vor-


lesungsmanuskript. AVT-Prozesstechnik, RWTH Aachen.

Minsky, M. (1965). Matter, mind and models. In: Proc. IFIP Congress Information
Processing (W.A. Kalenich, Hrsg.). Vol. 1. New York City, Mai 1965. Spartan
Books. Washington. S. 45–49.

Patzak, G. (1982). Systemtechnik - Planung komplexer innovativer Systeme. Springer.


Berlin.
3.4. STABILITÄT 87

Schlegel, Martin, Wolfgang Marquardt, Rainald Ehrig und Ulrich Nowak (2004). Sen-
sitivity analysis of linearly-implicit differential-algebraic systems by one-step ex-
trapolation. Appl. Numer. Math. 48(1), S. 83–102.

Shannon, C.E. (1998). Communication in the presence of noise. Proc. IEEE (Nach-
druck) 86, S. 447–457.

Shannon, R.E. (1975). Systems Simulation: The Art and Science. Prentice-Hall, Engle-
wood Cliffs, NJ.

Simon, H.A. (1981). The Sciences of the Artificial. 2. Auflage. The MIT Press. Cam-
brige, MA.

Stephanopoulos, G., G. Hennig und H. Leone (1990). MODEL.LA. A modeling lan-


guage for processs engineering. Comput. Chem. Engng 14, S. 813–869.

Unbehauen, H. (2007). Regelungstechnik II: Zustandsregelungen, digitale und nichtli-


neare Regelsysteme. 9. Auflage. Friedrich Vieweg & Sohn Verlag.

Unbehauen, R. (1993). Systemtheorie. 6. Auflage. R. Oldenbourg. München.

van der Schaft, A. J. und J. M. Schumacher (1999). An Introduction to Hybrid Dyna-


mical Systems. Springer, Berlin.

VDI-Richtlinie 3633 Blatt 1 (2000). Simulation von Logistik-, Materialfluss- und Pro-
duktionssystemen, Grundlagen. VDI-Handbuch Materialfluss und Fördertechnik,
Band 8. Gründruck, Beuth, Berlin.

Zeigler, B.P. (1984). Multi-facetted Modeling and Discrete Event Simulation. Academic
Press. London.
88 KAPITEL 3. KONTINUIERLICHE LINEARE SYSTEME
Kapitel 4

Kontinuierliche nichtlineare Systeme

Die Zustandsdarstellung nichtlinearer zeitinvarianter Systeme


ẋ(t) = f (x(t), u(t), p), x(t0 ) = x0 (4.1)
y(t) = h(x(t), u(t), p) (4.2)
ist bereits in Kapitel 2.2.1 eingeführt worden. Wir analysieren nun das dynamische
Verhalten nichtlinearer Systeme, die sich durch die Gleichungen (4.1) und (4.2) dar-
stellen lassen. Zunächst werden die Betrachtungen aus Kapitel 3 bezüglich Lösbarkeit,
Ruhelagen und Stabilität fortgesetzt. Hiernach wird auf Besonderheiten im dynami-
schen Verhalten nichtlinearer Systeme eingegangen. Der allgemeine Fall nichtlinearer
DA-Systeme wird in Kapitel 5 behandelt.
Die gesonderte Betrachtung nichtlinearer Systeme ist unerlässlich, da eine Vielzahl von
Phänomenen im dynamischen Verhalten nichtlinearer Systeme auftreten, die für linea-
re Systeme nicht zu beobachten sind. Hier ist beispielsweise die Anzahl der möglichen
Ruhelagen zu nennen. Während ein lineares System mit invertierbarer Systemmatrix
A immer eine Ruhelage aufweist, kann ein nichtlineares System mehrere Ruhelagen
besitzen. Welche der mehrfachen Ruhelagen eingenommen wird, hängt von dem An-
fangszustand des nichtlinearen Systems ab. Ein weiteres Phänomen ist, dass die Sys-
temzustände auf einen sogenannten Grenzzyklus zustreben können, so dass die Sys-
temzustände mit einer vom Anfangszustand unabhängigen Amplitude und Frequenz
oszillieren. Bei linearen, oszillierenden Systemen ist die Amplitude hingegen abhängig
vom Anfangszustand. Da sich diese Phänomene nicht mit der Theorie linearer Systeme
erklären lassen, werden spezielle Analysemethoden für nichtlineare Systeme eingeführt.
Jedoch ist es trotz dieser Analysemethoden oftmals schwierig, wenn nicht gar unmög-
lich, allgemein gültige Aussagen über das Systemverhalten nichtlinearer Systeme zu
treffen.
Obwohl globale Aussagen über das dynamische Verhalten nichtlinearer Systeme nur
selten getroffen werden können, ist ihr Verständnis unerlässlich, wie im Folgenden an-
hand eines industriellen Prozesses illustriert wird. Es handelt sich hierbei um eine

89
90 KAPITEL 4. KONTINUIERLICHE NICHTLINEARE SYSTEME

520

480
Temperatur [C°]

440

400

360

320

280
0 10 20 30 40 50 60 70 80 90 100 110 120 130 140 150
Zeit [min]

Abbildung 4.1: Zeit-Temperatur-Verlauf in einem Reaktor einer Ammoniak-Anlage

Anlage zur Produktion von Ammoniak. Abbildung 4.1 zeigt eine an der Produktions-
anlage gemessene Temperatur in einem Reaktor in Abhängigkeit von der Zeit (vgl.
J.C. Morud 1998). Wir sehen, dass der Prozess zu Beginn der Aufzeichnungen einen
Arbeitspunkt bei 480 °C hat. Von der zehnten bis zur vierzigsten Minute führt das
System aufklingende Schwingungen aus, gefolgt von asymmetrischen Schwingungen
mit konstanter Amplitude bis zur siebzigsten Minute. Dieses Verhalten lässt sich auf
die Nichtlinearität des Prozesses zurückführen. Hiernach erfolgt ein Eingriff durch den
Anlagenbetreiber, so dass das System abklingende Schwingungen bis auf den stabilen
Arbeitspunkt bei 480 °C ausführt. Durch ein besseres Systemverständnis ist es möglich,
solche unerwünschten Abweichungen vom optimalen Betriebspunkt zu vermeiden, die
die Stabilität und Wirtschaftlichkeit der Anlage gefährden.

4.1 Lösbarkeit nichtlinearer Systeme


Für ein nichtlineares System in Zustandsdarstellung (vgl. Gleichungen (4.1), (4.2)) ist
eine Aussage über die Lösbarkeit mit dem Satz von Picard-Lindelöf möglich.

Satz 4.1 (Picard-Lindelöf).


Sei D eine offene Untermenge von Rnx , x0 ∈ D, und f Lipschitz-stetig in x ∈ D. Dann
existiert eine eindeutige Lösung x(t) ∈ D für t ∈ [t0 − a, t0 + a] für eine Konstante
a > 0, die dem Differentialgleichungssystem

ẋ(t) = f (x(t), p) , x(t0 ) = x0 (4.3)

genügt.
4.2. RUHELAGEN NICHTLINEARER SYSTEME 91

Für ein nicht autonomes System ẋ(t) = f (x(t), u(t), p) muss f auch stetig in u und u
stetig in t sein. In der Regel kann bei technischen Systemen von Lösbarkeit ausgegangen
werden.

4.2 Ruhelagen nichtlinearer Systeme


Wie bei linearen Systemen stellt sich auch im nichtlinearen Fall eine Ruhelage ein,
wenn sich die Zustandsgrößen nicht mit der Zeit ändern, d.h. also ẋ = 0. Dann müssen
die Eingangsgrößen im Allgemeinen u(t) für alle t > t0 konstant sein.
Setzt man diese Bedingung in die nichtlineare Zustandsdarstellung (4.1), (4.2) ein,
erhalten wir die folgenden nichtlinearen Gleichungen zur Bestimmung der Ruhelage:
0 = f (xR , uR , p), (4.4)
yR = h(xR , uR , p) (4.5)
f (x(t), u(t), p) ist hierbei lokal (an einem Punkt) nach x(t) auflösbar, wenn die Inverse
f −1 lokal existiert. Die Ruhelage lautet dann:
xR = xR (uR , p), (4.6)
yR = yR (uR , p) (4.7)

Ob die eindeutige Inverse existiert, überprüfen wir mit Hilfe des Satzes über implizite
Funktionen. Dieser besagt, dass die Auflösung x(t) = f −1 (u(t), p) in der Nähe einer
Stelle x̄ als Funktion von p und p0 dann existiert, wenn die Ableitung ∂f | , d.h. die
∂x x̄
Jacobi-Matrix, an der Stelle x̄ vollen Rang hat und f (xR , uR , p0 ) = 0. In diesem Fall
ist die Ruhelage eindeutig bestimmt und die notwendige Bedingung für die Existenz
der Ruhelage ist daher:
 
∂f
rang =n f : Rnx → Rnx (4.8)
∂x x̄
Die Auswertung von Jacobi-Matrizen ist allerdings problematisch, weil Jacobi-Matrizen
nur mit hohem Aufwand bestimmt werden können. Wir suchen also eine andere Mög-
lichkeit, um an dieselbe Aussage zu gelangen.
Anstatt die Einträge der Jacobi-Matrix konkret zu berechnen, sammelt man nur In-
formationen darüber, an welcher Stelle der Jacobi-Matrix ein von Null verschiedener
Eintrag auftritt. Es entsteht eine Matrix, die sogenannte Inzidenz-Matrix , deren Ele-
mente lediglich zwei diskrete Realisierungen haben können:
 
∂f ∂fi
pat = (hij )1≤i,j≤n , hij = ∗, wenn 6= 0 (4.9)
∂x ∂xj
 
∂fi
= 0, wenn =0 (4.10)
∂xj
92 KAPITEL 4. KONTINUIERLICHE NICHTLINEARE SYSTEME

h1 h2 h3
* 0 0 
∂f 
pat = * * 0
∂x
0 * *

Abbildung 4.2: Inzidenzmatrix der stationären Brunnenkaskaden. Hierbei gibt ∗ einen


beliebigen Wert ∈ R 6= 0.

Der „pat“-Operator (von engl. „pattern“) angewendet auf die Jacobi-Matrix ergibt die
Inzidenz-Matrix. Hier werden von Null verschiedene Einträge einfach mit einer belie-
bigen, von Null verschiedenen Variable x belegt, andernfalls wird der Eintrag mit 0
kodiert. Um diese Matrix aufzustellen, muss man keine Ableitung explizit ausrechnen,
sondern lediglich in den Modellgleichungen untersuchen, welche zu berechnenden Va-
riablen in welchen Gleichungen auftauchen.
Die umformulierte notwendige Lösbarkeitsbedingung lautet dann:

Wenn die aus der Jacobi-Matrix abgeleitete Inzidenz-Matrix vollen struktu-


rellen Rang hat, kann es eine Lösung des nichtlinearen algebraischen Sys-
tems geben.

Der strukturelle Rang einer Matrix entspricht der Maximalzahl von „ ∗ “-Elementen
in der Inzidenz-Matrix in unterschiedlichen Zeilen und Spalten. Um diese Definition
in der Praxis anzuwenden, versuchen wir in der Inzidenzmatrix möglichst viele „ ∗
“-Elemente auszuwählen, die weder in der gleichen Zeile noch in der gleichen Spalte
stehen (vgl. Abbildung 4.2). Die Anzahl dieser Elemente enstpricht dem strukturellen
Rang der Inzidenzmatrix. Ist die Anzahl gleich der Dimension der Inzidenzmatrix, so
hat diese vollen strukturellen Rang. Bei vollem strukturellen Rang gilt also, dass jeder
Variablen xj genau eine Gleichung j zugeordnet werden kann. Diese Zuordnung muss
nicht eindeutig sein.

Beispiel 4.1 (Brunnenkaskade).


Zur Veranschaulichung betrachten wir die Brunnenkaskade aus Beispiel 2.2, die durch
die Gleichung (2.6) modelliert wird, im stationären Zustand.
1
(4.11)
p
0= (qein,1 − s1 2gh1 (t)),
A1
1
(4.12)
p p
0= (s1 2gh1 (t) − s2 2gh2 (t)),
A2
1
(4.13)
p p
0= (s2 2gh2 (t) − s3 2gh3 (t))
A3
4.2. RUHELAGEN NICHTLINEARER SYSTEME 93

u R,i = konstant x R ,i
xR,i
f=0

xR,i = konstant
f=0

u R ,i u R ,i
(a) Zustandsmehrdeutigkeiten (b) Eingangsmehrdeutigkeiten

Abbildung 4.3: Mehrdeutigkeiten von Ruhelagen

Die Inzidenzmatrix dieses Beispiels ist in Abbildung 4.2 dargestellt.


Man erkennt, dass in der Inzidenzmatrix in jeder Zeile und in jeder Spalte mindestens
ein Sternchen auftaucht. Wir können sogar jeder Variablen h1 , h2 , h3 eine Gleichung
zuordnen. Damit haben wir gezeigt, dass die Inzidenz-Matrix vollen strukturellen Rang
hat.

Die Ruhelagen nichtlinearer Systeme sind durch nichtlineare, algebraische Gleichungen


bestimmt. Da für nichtlineare Gleichungen im Allgemeinen keine, eine oder mehrere
Lösungen existieren, können auch nichtlineare Systeme mehrdeutige stationäre Lösun-
gen aufweisen. Die Abbildungen 4.3(a) und 4.3(b) zeigen jeweils eine Komponente des
Zustandsvektors in der Ruhelage aufgetragen über einer Komponente des Eingangs-
vektors in der Ruhelage. In Abbildung 4.3(a) sehen wir, dass für eine Eingangsgröße
u drei verschiedene Zustände vorliegen. Praktisch bedeutet dies, dass wir, wenn einem
System eine Eingangsgröße aufgeprägt wird, nicht wissen, auf welche Ruhelage das Sys-
tem für große Zeiten zustrebt. Abbildung 4.3(b) zeigt den umgekehrten Fall, in dem
für verschiedene Eingangsgrößen die gleiche Ruhelage vorliegt.

Beispiel 4.2 (Pendel).


Mehrfache Ruhelagen können bereits in relativ einfachen Systemen auftauchen. Dies
betrachten wir am Beispiel eines Pendels. Aus den Grundlagen der Mechanik ergeben
sich gemäß Abbildung 4.4 mit ϕ̇(t) = ω(t) folgende Gleichungen:

Drallsatz:
J ω̇(t) = MG + MR (4.14)
Trägheitsmoment einer Punktmasse:
J = m · l2 (4.15)
Moment durch Schwerkraft:
MG = −mgl sin(ϕ) (4.16)
94 KAPITEL 4. KONTINUIERLICHE NICHTLINEARE SYSTEME

e1
ϕ,ω

e2
m

Fr Fg

Abbildung 4.4: Prinzipskizze eines einfachen Pendels

Reibmoment im Gelenk:
MR = −c · ω(t) (4.17)

Einsetzen liefert

ml2 ω̇(t) = −mgl sin(ϕ(t)) − cω̇(t). (4.18)

Um die Ruhelagen des Systems zu bestimmen, bringen wir es zunächst in die Zustands-
darstellung:

ẋ1 (t) = x2 (t), (4.19)


g c
ẋ2 (t) = − sin(x1 (t)) − 2 x2 (t), (4.20)
l ml
wobei (x1 (t),x2 (t))T = (ϕ(t),ω(t))T . Für eine Ruhelage müssen sowohl die Winkelge-
schwindigkeit ẋ1 als auch die Winkelbeschleunigung ẋ2 null sein.
Somit ergibt sich für die Ruhelagen aus der Zustandsraumdarstellung durch Auflösen
nach x1 (t) und x2 (t), dass aus mathematischer Sicht unendlich viele Ruhelagen exis-
tieren,

x2 (t) = 0,
sin(x1 (t)) = 0 ⇒ x1 (t) = kπ , k = 0, 1, 2, . . . ,

die einem hängendem und einem stehenden Pendel gemäß Abbildung 4.5 entsprechen.

Abbildung 4.5: Ruhelagen des Pendels


4.3. STABILITÄT NICHTLINEARER SYSTEME 95

4.3 Stabilität nichtlinearer Systeme

Aus Abbildung 4.5 ist sofort ersichtlich, dass die errechneten Ruhelagen des Pendels
unterschiedliches Verhalten aufweisen, d.h. die Ruhelagen sind stabil für ein hängendes
Pendel und instabil für ein stehendes Pendel. Um auch das Stabilitätsverhalten kom-
plizierterer Systeme analysieren zu können, für die nicht sofort erkennbar ist, ob eine
gegebene Ruhelage stabil oder instabil ist, werden in diesem Abschnitt drei Verfahren
für die Stabilitätsanalyse nichtlinearer Systeme vorgestellt. Diese Verfahren beruhen
auf den allgemeinen Definitionen der Stabilität, wie sie bereits für die Stabilitätsunter-
suchung linearer Systeme in Kapitel 3.4 eingeführt wurden.

4.3.1 Experimentelle Stabilitätsanalyse

Bei der experimentellen Stabilitätsanalyse wird zunächst ein mathematisches Modell


des Systems erstellt und in einer Simulationssoftware implementiert. Anschließend kann
man durch Simulation mit verschiedenen Startwerten eine Aussage über die Art der
Ruhelage treffen. Dieses Vorgehen eignet sich besonders um einen schnellen Überblick
über das Systemverhalten zu gewinnen, jedoch nicht um Stabilität bzw. Instabilität
eindeutig nachzuweisen, da man nie mit Sicherheit eine Aussage treffen kann, ob das
System für andere Startwerte ein unterschiedliches dynamisches Verhalten aufweist.

Beispiel 4.3 (Pendel (vgl. Beispiel 4.2)).


Die Ruhelagen

x1 (t) = kπ , k = 0, 1, 2, . . . , x2 (t) = 0

lassen sich in stabile (k = 0, 2, 4, . . .) und instabile (k = 1, 3, 5, . . .) Ruhelagen untertei-


len. Das Stabilitätsverhalten der Ruhelagen lässt sich durch Simulation mit Startwerten
in der Nähe der jeweiligen Ruhelage bestimmen. Hierzu betrachten wir zunächst den Fall
k = 0 stellvertretend für alle geraden Vielfache von π. Abbildung 4.6(a) zeigt den sich
ergebenden Verlauf der Zustandsgrößen mit verschiedenen Startwerten. Man erkennt
in Abbildung 4.6(a) anhand des Kurvenverlaufs, dass es sich um eine stabile Ruhelage
handelt, da das System für kleine Auslenkungen aus der Ruhelage x1R = x2R = 0 nach
einiger Zeit die gleiche Ruhelage wieder einnimmt.
Anschließend betrachten wir den Fall k = 1 stellvertretend für alle ungeraden Vielfa-
che von π. Aus Abbildung 4.6(b) ist ersichtlich, dass es sich um eine instabile Ruhelage
handelt. Startet man die Simulation genau bei x1R = x2R = π so verharrt das System
entsprechend der Definition für eine Ruhelage in dieser. Startet man die Simulation je-
doch mit einer kleinen Auslenkung aus der Ruhelage, schwingt das System zunächst mit
einer wesentlich größeren Amplitude als in Abbildung 4.6(a) und nimmt nach einiger
Zeit eine andere stabile Ruhelage ein, d.h. es geht von Π auf 0 bzw. auf 2Π.
96 KAPITEL 4. KONTINUIERLICHE NICHTLINEARE SYSTEME

(a) stabile Ruhelage

(b) instabile Ruhelage

Abbildung 4.6: Ruhelagen des Pendels


4.3. STABILITÄT NICHTLINEARER SYSTEME 97

4.3.2 Stabilitätsanalyse nach Ljapunow

Eine Möglichkeit, Stabilität eindeutig nachzuweisen, ist die Stabilitätsanalyse nach


Ljapunow. Der Stabilitätsnachweis erfolgt mit Hilfe einer Funktion, der sogenannten
Ljapunow-Funktion, die bestimmte Eigenschaften aufweisen muss. Die für die Stabili-
tätsanalyse relevanten Eigenschaften werden im folgenden Abschnitt beschrieben.

Definition 4.1 (Definite Funktionen).


Für eine Funktion V gelte:

1.V : D → R
 0 ⊂ D ⊂ Rnx
 D ist offen und zusammenhängend
2.V (0) = 0

Dann ist V eine


• positiv-definite Funktion (PDF), wenn V (x̄) > 0, ∀x̄ ∈ D \ {0}.
• positiv semi-definite Funktion (PSDF), wenn V (x̄) ≥ 0, ∀x̄ ∈ D.

• negativ-definite Funktion (NDF), wenn V (x̄) < 0, ∀x̄ ∈ D \ {0}.


• negativ semi-definite Funktion (NSDF), wenn V (x̄) ≤ 0, ∀x̄ ∈ D.

• unbeschränkt PDF (UPDF), wenn V (x̄) > 0, ∀x̄ ∈ Rnx \ {0},


V (x̄) → ∞, für kx̄k → ∞.

Mit dem Stabilitätstheorem nach Ljapunow ist es möglich, Stabilität der Ruhelage
x(t) = 0 des Systems ẋ(t) = f (x(t)) nachzuweisen, in dem man V und D geeignet
wählt.

Theorem 4.1 (Stabilitätstheorem nach Ljapunow).


Sei x(t) = 0 ohne Beschränkung der Allgemeinheit eine Ruhelage1 . Die Ruhelage
x(t) = 0 ist
dV
• lokal stabil, wenn V PDF auf D und dt
NSDF auf D ⊂ Rnx
dV
• lokal asymptotisch stabil, wenn V PDF auf D und dt
NDF auf D ⊂ Rnx

dV
• global stabil2 , wenn V UPDF auf Rnx und dt
NSDF auf Rnx
dV
• global asymptotisch stabil, wenn V UPDF auf Rnx und dt
NDF auf Rnx
auf jeder Trajektorie von ẋ(t) = f (x(t)).
1
Dies kann angenommen werden, da durch eine Koordinatentransformation jede Ruhelage in den
Nullpunkt verschoben werden kann.
2
In diesem Skript verzichten wir auf eine genaue Definition für globale Stabilität. Für ein besseres
Verständnis soll jedoch erwähnt sein, dass global in diesem Zusammenhang grob bedeutet, dass die
Anfangsbedingungen x(t0 ) beliebig weit entfernt von der Ruhelage x = 0 gewählt werden können.
98 KAPITEL 4. KONTINUIERLICHE NICHTLINEARE SYSTEME

Eine geeignete Ljapunow-Funktion zu finden, ist im Allgemeinen nicht ganz einfach


und auch nicht immer möglich. Häufig führen jedoch quadratische Ansätze wie bei-
spielsweise V (x(t)) = x21 (t) + x22 (t) + . . . + x2n (t) oder physikalisch motivierte Ansätze
zum Ziel. Dies soll durch einige Beispiele verdeutlicht werden (vgl. Khalil (2000, S.
111ff)). Um zu untersuchen ob die Ableitung dV dt
NSDF bzw. NDF ist, benötigt man
die Kettenregel, da man die Trajektorie x(t) einsetzen muss. Das wird in den folgenden
Beispielen auch gemacht.

Beispiel 4.4 (Lineares System).


Wir betrachten das lineare System:

ẋ(t) = f (x(t)) = Ax(t) (4.21)

Als Ljapunow-Funktion wählen wir einen verallgemeinerten quadratischen Ansatz


V (x(t)) = xT (t)P x(t) mit einer beliebigen positiv-definiten Matrix P .
Eine symmetrische Matrix P heißt
• positiv-definit, wenn xT (t)P x(t) > 0 ∀ x(t) ⇔ eig(P ) > 0 und
• negativ-definit, wenn xT (t)P x(t) < 0 ∀ x(t) ⇔ eig(P ) < 0.

dV
Für die Ableitung dt
(x(t)) ergibt sich
"  T #
dV dx dx
(x(t)) = xT (t)P + P x(t) . (4.22)
dt dt t dt
t

Um die Stabilität des Systems zu untersuchen, wollen wir eine Aussage über die De-
finitheit der Ableitung dV
dt
(x(t)) auf jeder Trajektorie des Systems treffen. Daher wird
Gleichung (4.21) in Gleichung (4.22) eingesetzt:

dV
(x(t)) = xT (t)P Ax(t) + xT (t)AT P x(t) = xT (t) P A + AT P x(t) (4.23)
   
dt | {z }
Q

Wenn Q negativ definit ist, ist auch dVdt


(x(t)) negativ für alle x 6= 0 und somit eine
negativ-definite Funktion. Das lineare System wäre in diesem Fall stabil.
Entspricht P der Einheitsmatrix, so ist Q = A + AT . Diese Matrix ist dann negativ-
definit, wenn eig(A) < 0. Somit erhalten wir die Bedingung, die auch schon bei der
Stabilitätsanalyse linearer Systeme aufgetreten ist (vgl. Kapitel 3.4.2).

Beispiel 4.5 (Nichtlineares System 1).


Wir betrachten nun das nichtlineare System

ẋ1 (t) = x1 (t)(x21 (t) + x22 (t) − 1) − x2 (t), (4.24)


ẋ2 (t) = x1 (t) + x2 (t)(x21 (t) + x22 (t) − 1). (4.25)
4.3. STABILITÄT NICHTLINEARER SYSTEME 99

Als Ljapunow-Funktion wählen wir einen quadratischen Ansatz V (x(t)) = xT (t)x(t) =


x21 (t) + x22 (t). Dabei handelt es sich um eine unbeschränkt positiv-definite Funktion.
Differenzieren und Einsetzen der Gleichung (4.24), (4.25) führt auf:

dV ∂V dx1 ∂V dx2
(x(t)) = +
dt ∂x1 dt t ∂x2 dt t
= 2x1 (t)ẋ1 (t) + 2x2 (t)ẋ2 (t) = 2(x21 (t) + x22 (t))(x21 (t) + x22 (t) − 1). (4.26)

Diese Funktion ist nur dann negativ-definit, wenn (für x(t) 6= 0) einer der Faktoren
x21 (t) + x22 (t) und x21 (t) + x22 (t) − 1 kleiner als null ist, während der andere größer als
null ist. Dies ist für alle kx(t)k = δ < 1 der Fall. Somit ist in der Umgebung δ der
Ruhelage lokale asymptotische Stabilität nachgewiesen.

Beispiel 4.6 (Pendel).


Nun nehmen wir für das Pendel aus Beispiel 4.2 an, dass l = c = m = 1. Das System
ist somit durch die Gleichungen

ẋ1 (t) = x2 (t), (4.27)


ẋ2 (t) = −g sin(x1 (t)) − x2 (t), (4.28)

bestimmt. Auch hier wählen wir zunächst einen quadratischen Ansatz für die Ljapunow-
Funktion V (x(t)) = xT (t)x(t) = x21 (t) + x22 (t). Differentiation und Einsetzen liefert:

dV ∂V dx1 ∂V dx2
(x(t)) = + = 2x1 (t)ẋ1 (t) + 2x2 (t)ẋ2 (t)
dt ∂x1 dt t ∂x2 dt t
= 2x1 (t)x2 (t) + 2x2 (t)(−g sin(x1 (t)) − x2 (t))
= 2(x1 (t)x2 (t) − x22 (t) − gx2 (t) sin(x1 (t))). (4.29)

Wie in Abbildung 4.7 zu sehen ist, ist diese Funktion indefinit und daher als Ljapunow-
Funktion ungeeignet. Alternativ wählen wir nun einen physikalisch motivierten Ansatz
für die Ljapunow-Funktion. Dazu betrachten wir die gesamte mechanische Energie des
Systems:

potentielle Energie: Ep = mgh(t) = g(1 − cos(x1 (t))) (4.30)


1 1
kinetische Energie: Ekin = mlω(t) = x22 (t) (4.31)
2 2
1
Gesamtenergie: V (x(t)) = g(1 − cos(x1 (t))) + x22 (t) (4.32)
2
Die mechanische Energie (Summe von kinetischer und potentieller Energie) ist für
mechanische Systeme ein guter Kandidat für eine Ljapunow Funktion. Dies kann wie
folgt basierend auf thermodynamischen Gesetzen veranschaulicht werden. Bei geeigne-
ter Wahl einer stabilen Ruhelage als Systemreferenz ist die mechanische Energie eine
positive definite Funktion (Null an der Ruhelage und größer Null um die Ruhelage). Für
100 KAPITEL 4. KONTINUIERLICHE NICHTLINEARE SYSTEME

Abbildung 4.7: dV
dt
(x(t)) bei quadratischem Ansatz für Ljapunow-Funktion

Abbildung 4.8: V (x(t)) bei physikalischem Ansatz für Ljapunow-Funktion


4.3. STABILITÄT NICHTLINEARER SYSTEME 101

ein isoliertes System, nimmt die mechanische Energie aufgrund von Irrversibilität ab
und wird in innere Energie umgewandelt. (Bei geschlossenen Systemen ohne Arbeitzu-
fuhr nimmt die mechanische Energie auch ab und wird in innere Energie oder Wärme
umgewandelt). Das bedeutet, dass die zeitliche Ableitung der mechanischen Energie eine
negative (semi-)definite Funktion ist.
Abbildung 4.8 zeigt, dass die Funktion für −2π < x1 (t) < 2π und x2 (t) ∈ R positiv-
definit ist. Nach Differentiation und Einsetzen ergibt sich:
dV ∂V dx1 ∂V ∂x2
(x(t)) = + = gx1 (t)ẋ1 (t) + x2 (t)ẋ2 (t)
dt ∂x1 dt t ∂x2 dt t
= gx2 (t) sin(x1 (t)) + x2 (t)(−g sin(x1 (t)) − x2 (t)) = −x22 (t) ≤ 0 (4.33)
dV
Da dt x(t)
negativ-semidefinit2 , ist das System lokal stabil.3

Wir wissen jedoch, dass das Pendel für bestimmte Ruhelagen auch lokale, asymptoti-
sche Stabilität aufweist. Allerdings ist diese mit dem Stabilitätstheorem nach Ljapunow
und der oben verwendeten Ljapunow-Funktion nicht nachweisbar. Daher betrachten wir
im folgenden La Salle’s Theorem, das den Stabilitätsnachweis nach Ljapunow erweitert.
Theorem 4.2 (La Salle’s Theorem). La Salle’s Theorem erweitert das Stabilitäts-
theorem nach Ljapunow für den Fall, dass V (x(t)) positiv-definit und dVdt x(t)
negativ
semi-definit ist. Das System ist dann asymptotisch stabil, wenn für die Menge
 
dV
S = x(t) (x(t)) = 0
dt
kein Zustand in S bleiben kann, außer dem Zustand x(t) = 0.
Beispiel 4.7 (Pendel (vgl. Beispiel 4.2)). Die oben gezeigte Stabilitätsanalyse des Pen-
dels, bei der lediglich die Stabilität, nicht jedoch asymptotische Stabilität nachgewiesen
werden konnte, wird mit La Salle’s Theorem ergänzt. Bereits hergeleitet und erläutert
wurden die Gleichungen (4.27)und (4.28) für das System sowie die Ljapunow-Funktion
T
mit dVdt
(x(t)) = −x 2
2 (t). Die Menge S enthält somit die Zustände x(t) = x 1 (t) 0
mit x1 (t) ∈ R, da für diese dV dt
(x(t)) = 0 ist. Um asymptotische Stabilität nachzuweisen
muss nun gelten, dass die Zustandsänderung der in der Menge S befindlichen Zustän-
T T
de, ẋ(t)|S , ungleich α 1 0 mit α ∈ R ist, weil für ẋ(t)|S = α 1 0 die Zustände
in der Menge S verbleiben würden. Für die Zustandsänderung der in der Menge S
befindlichen Zustände gilt
 
0
ẋ(t)|S = f (x(t))|S = . (4.34)
−g sin(x1 (t))
2
Die Funktion ist nicht negativ-definit, da x1 beliebig ist und somit neben dem Ursprung unendlich
viele weitere Nullstellen (x1 , 0) existieren.
3
Das System ist gemäß dem Stabilitätstheorem nach Ljapunow nur lokal stabil, da die Einschrän-
kung −2π < x1 < 2π getroffen wurde.
102 KAPITEL 4. KONTINUIERLICHE NICHTLINEARE SYSTEME
T
Das bedeutet ẋ(t)|S 6= α 1 0 für α 6= 0. Wir müssen somit nur für alle x(t) 6= 0
garantieren, dass
 
˙ = 0
x(t) 6= 0, (4.35)
−g sin(x1 (t))

was für −π < x1 (t) < π gilt. Somit ist nach La Salle’s Theorem die Ruhelage des
Systems x(t) = 0 lokal asymptotisch stabil auf D̃ = {x(t)| − π < x1 (t) < π, x2 (t) ∈ R}.

4.3.3 Stabilitätsanalyse des linearisierten Systems


Eine weitere Möglichkeit, die Stabilität von Ruhelagen nichtlinearer Systeme zu unter-
suchen, ist die indirekte Methode von Ljapunow, die auf einer Linearisierung beruht.
Dazu wird das nichtlineare System mit Hilfe einer Taylor-Entwicklung um die Ruhelage
linearisiert. Man erhält hierbei eine Gleichung der Form ∆ẋ(t) = A∆x(t) + B∆u(t),
die das System in der Nähe der Ruhelage approximiert. Anschließend werden die Ei-
genwerte der Matrix A berechnet. Wie bei linearen Systemen (vgl. Kapitel 3.4.2) kann
von den Realteilen der Eigenwerte auf das lokale Stabilitätsverhalten geschlossen wer-
den. Gemäß dem Satz von Hartmann-Grobmann ist der Rückschluss vom linearisierten
System auf das nichtlineare System jedoch nur zulässig, wenn die Matrix A keinen Ei-
genwert hat, dessen Realteil Null ist (vgl. Khalil (2000, S. 139ff)).

4.3.3.1 Linearisierung

Um das System in der Nähe der Ruhelage zu linearisieren, führen wir eine Taylor-
Entwicklung um die Ruhelage durch. Durch Vernachlässigung der Terme höherer Ord-
nung erhalten wir ein lineares System, dass das Verhalten in der Nähe der Ruhelage in
ausreichend guter Näherung beschreibt. Voraussetzung für die Taylor-Entwicklung ist
allerdings, dass die Funktion differenzierbar ist.
Eine Taylor-Entwicklung um den Referenzpunkt xP einer skalaren Funktion ϕ(x) hat
die Form
∂ϕ(x) 1 ∂ 2 ϕ(x) 1 ∂ 3 ϕ(x)
ϕ(x) = ϕ(xP ) + ∆x + ∆x2 + ∆x3 + . . . , (4.36)
∂x xP 2! ∂x2 xP 3! ∂x3 xP

wobei ∆x = x − xP . Durch Vernachlässigung von Termen höherer Ordnung und Sub-


traktion vom ϕ(xP ) erhalten wir
∂ϕ(x)
ϕ(x) − ϕ(xP ) ∼
= (x − xP ) . (4.37)
| {z } ∂x P
| {z }
∆ϕ(x) ∆x

Da die auftretenden Systemgleichungen üblicherweise nicht skalar sind, betrachten wir


nun die Linearisierung eines Systems um eine Ruhelage. Diese hat die gleiche Form,
4.3. STABILITÄT NICHTLINEARER SYSTEME 103

jedoch entsteht bei der Ableitung der vektoriellen Funktion die Jacobi-Matrix. Gege-
ben sei ein nichtlineares vektorielles System in Zustandsdarstellung (vgl. Gleichungen
(4.1), (4.2)) mit Ruhelage xR bei konstantem Eingang uR . Für die Trajektorie in der
Umgebung N der Ruhelage nach einer Störung gilt:

x(t) ∈ N (xR ) ⊂ Rnx (4.38)

Die allgemeine Taylor-Entwicklung um den Referenzpunkt P := (xP , uP ) hat die fol-


gende Form
∂f (x, u) ∂f (x, u)
f (x, u) = f (xP , uP ) + ∆x + ∆u + T.h.O., (4.39)
∂x P ∂u P
∂h(x, u) ∂h(x, u)
h(x, u) = h(xP , uP ) + ∆x + ∆u + T.h.O., (4.40)
∂x P ∂u P

wobei ∆x = x − xP und ∆u = u − uP . In der Nähe der Ruhelage ẋ(t) = f (x(t)) = 0


gilt nach Vernachlässigung von Termen höherer Ordnung

f (x(t), u(t)) ∼
= f˜(x(t), u(t)) (4.41)
∂f (x, u) ∂f (x, u)
= f (xR (t), uR (t)) + ∆x(t) + ∆u(t),
| {z } ∂x R ∂u R
=0

h(x(t), u(t)) ∼
= h̃(x(t), u(t)) (4.42)
∂h(x, u) ∂h(x, u)
= h(xR (t), uR (t)) + ∆x(t) + ∆u(t).
∂x R ∂u R

Da wir das System um die Ruhelage linearisieren wollen, können wir

∆ẋ(t) := ẋ(t) − ẋR (t) mit ẋR (t) = 0 ⇒ ∆ẋ(t) = ẋ(t), (4.43)
∆y(t) := y(t) − yR (t) mit yR (t) = yR (t) ⇒ ∆y(t) = y(t) − yR (t) (4.44)

einsetzen. Damit ergibt sich


∂f (x, u) ∂f (x, u)
∆ẋ(t) = f˜(x(t), u(t)) = ∆x(t) + ∆u(t), (4.45)
∂x R ∂u R
| {z } | {z }
A B
∂h(x, u) ∂h(x, u)
∆y(t) = h̃(x(t), u(t)) − h(xR (t), uR (t)) = ∆x(t) + ∆u(t),
∂x R ∂u R
| {z } | {z }
C D
(4.46)
und wir erhalten insgesamt

∆ẋ(t) = A∆x(t) + B∆u(t) , ∆x(t0 ) = 0 (4.47)


∆y(t) = C∆x(t) + D∆u(t). (4.48)
104 KAPITEL 4. KONTINUIERLICHE NICHTLINEARE SYSTEME

Die Jacobi-Matrizen A,B,C,D haben die Dimensionen und Definitionen


∂f (x, u)
A := , A ∈ Rnx ×nx (4.49)
∂x R
∂f (x, u)
B := , B ∈ Rnx ×nu (4.50)
∂u R
∂h(x, u)
C := , C ∈ Rny ×nx (4.51)
∂x R
∂h(x, u)
D := , D ∈ Rny ×nu . (4.52)
∂u R

Die Matrix A wird folgendermaßen berechnet:


 ∂f1 ∂f1 ∂f1 
∂x1 ∂x2
··· ∂xnx
A =  ... ..
.
..
.
..  .
.  (4.53)

∂fnx ∂fnx ∂fnx
∂x1 ∂x2
··· ∂xnx

Analog dazu erfolgt die Berechnung der weiteren Matrizen (vgl. Khalil (2000, S. 51ff)).
Für einen konstanten Eingang uR erhalten wir ∆u(t) = 0 und deshalb
∆ẋ(t) = A∆x(t) , ∆x(t0 ) = 0 (4.54)
∆y(t) = C∆x(t). (4.55)
Nachdem das System wie oben gezeigt linearisiert wurde, kann die Systemmatrix A mit
den aus Kapitel 3.4.2 bekannten Methoden untersucht werden. Diese Schritte werden
im Folgenden anhand eines Beispiels demonstriert.
Beispiel 4.8 (Räuber-Beute-Problem). Das Räuber-Beute-Problem wird durch die
Gleichungen
dH
= (b1 − b2 − hL(t))H(t), (4.56)
dt t
dL
= (rH(t) − c)L(t) (4.57)
dt t

beschrieben. Nach Einsetzen von ẋ(t) = (Ḣ(t), L̇(t))T = 0 erhalten wir die Ruhelagen
c b 1 − b2
1. HR1 = , LR1 = ⇒ b1 > b2 und
r h
2. HR2 = 0 , LR2 = 0.
Eine Taylorreihen-Entwicklung um die allgemeine Ruhelage xR = (HR , LR )T ergibt
∆Ḣ = b1 ∆H − b2 ∆H − hLR ∆H − hHR ∆L,
∆L̇ = rLR ∆H + rHR ∆L − c∆L.
isierung des Hasen-Luchs-Modells (3)
4.3. STABILITÄT NICHTLINEARER SYSTEME 105

ohne Linearisierung ohne Linearisierung


700 mit Linearisierung
mit Linearisierung
600
Ruhelage 1
500
Luchse
400

300

200
Ruhelage 2
100

0
0 1000 2000 300 0 2000 4000 6000 8000 10000 12000
Hasen Hasen

Abbildung 4.9: Simulation des Räuber-Beute-Problems


earisierte Modell beschreibt das Verhalten des nichtlinearen
s nur nahe am
Um Linearisierungspunkt ausreichend
nun die Stabilität der einzelnen Ruhelagen zugenau.
untersuchen, setzen wir diese in das
linearisierte System ein. Für Ruhelage 1 erhalten wir
Modellieren &
analysieren
− hc
 
0
∆ẋ(t) =Simulationstechnik r
r(b1 −b2 ) SS 2011 V17 ∆x(t). 20 (4.58)
h
0

Für die Eigenwerte ergibt sich in diesem Fall


p p
λ1 = i (b1 − b2 )c, λ2 = −i (b1 − b2 )c.

Da der Realteil beider Eigenwerte null ist, ist nach dem Satz von Hartmann-Grobmann
der Rückschluss vom linearisierten auf das nichtlineare System nicht möglich. Für Ru-
helage 2 erhalten wir
 
(b1 − b2 ) 0
∆ẋ(t) = ∆x(t). (4.59)
0 −c

Die Eigenwerte berechnen sich zu

λ1 = b1 − b2 > 0, λ2 = −c < 0.

Da der Realteil des ersten Eigenwerts größer als 0 ist, ist die Ruhelage 2 instabil.
Dass das linearisierte System das Verhalten des nichtlinearen Systems nur nahe am Li-
nearisierungspunkt ausreichend genau beschreibt, soll die Abbildung 4.9 verdeutlichen.
Wir können erkennen, dass für Ruhelage 2 das Systemverhalten des linearisierten Sys-
tems (rote Linien) und des ursprünglichen nichtlinearen Systems (blaue Linien) in
einer kleinen Umgebung der Ruhelage nahezu übereinstimmt. Entfernt man sich weiter
von der Ruhelage weicht das Systemverhalten teils erheblich ab.
106 KAPITEL 4. KONTINUIERLICHE NICHTLINEARE SYSTEME

4.3.3.2 Vergleich der Methoden

Abschließend wollen wir die Vor- und Nachteile der einzelnen Methoden zur Stabili-
tätsanalyse zusammenfassen.
Die experimentelle Stabilitätsanalyse liefert bei einfachen Systemen einen schnellen
Überblick über das Systemverhalten, erfordert aber die Implementierung eines dyna-
mischen Simulationsmodells. Bei großen Systemen wird sie schnell sehr rechenintensiv,
da mit vielen verschiedenen Startwerten simuliert werden muss. Zudem ist sie nur lokal
anwendbar; auch in einem begrenzten Bereich kann das Stabilitätsverhalten nicht mit
vollständiger Sicherheit bestimmt werden, da es sich nicht um einen mathematischen
Nachweis, sondern nur um Ausprobieren handelt.
Mit der direkten Methode nach Ljapunow kann dagegen im Prinzip sowohl globale als
auch lokale Stabilität eindeutig nachgewiesen werden. Allerdings ist es oftmals proble-
matisch eine geeignete Ljapunow-Funktion zu finden. Somit ist diese Methode meist
auf kleinere Systeme beschränkt.
Die indirekte Methode mittels Linearisierung um die Ruhelage liefert einen Eindeutigen
Stabilitätsnachweis, wenn keine Nulleigenwerte auftreten. Da die Linearisierung aber
nur in einer kleinen Umgebung um die Ruhelage ausreichend genau ist, kann nur lokale
Stabilität nachgewiesen werden.

4.4 Dynamisches Verhalten nichtlinearer Systeme


In diesem Abschnitt wollen wir einige besondere Phänomene, die für nichtlineare Syste-
me auftreten können, betrachten. Dazu gehören beispielsweise Grenzzyklen und chao-
tisches Verhalten. Weiterhin betrachten wir ein parameterabhängiges Systemverhalten,
die sogenannte Bifurkation.

4.4.1 Attraktoren und Repelloren

Wenn man die Attraktoren und Repelloren eines nichtlinearen Systems kennt, kann
man auf das Systemverhalten für große Zeiten schließen.

Definition 4.2 (Attraktoren und Repelloren). Ein Attraktor U ist eine kompakte Un-
termenge des Zustandraums mit folgenden Eigenschaften (vgl. Abbildung 4.10):

• Invarianz: Trajektorien mit Anfangswerten in U verlassen U niemals.

• Anziehung: Es gibt eine offene invariante Menge V (Untermenge des Zu-


standraums), die U enthält, so dass alle Trajektorien, die in V starten, sich
4.4. DYNAMISCHES VERHALTEN NICHTLINEARER SYSTEME 107

.
x1

V1 .x2
U
V2

Abbildung 4.10: Schematische Darstellung der Eigenschaften eines Attraktors

beliebig nahe an U annähern. Es gilt also für beliebige Trajektorien x(t) mit
x(0) ∈ V

∀δ > 0 : ∃T und x̂(t) ∈ U : ||x(t) − x̂(t)|| < δ ∀t ≥ T

• Transitivität: Für beliebige Punkte x1 , x2 aus U und beliebige offene Umgebungen


V1 ⊂ V um x1 und V2 ⊂ V um x2 , gibt es eine Trajektorie, die in V1 startet
und in V2 endet. Also, ∀x1 , x2 ∈ U und ∀δ1 , δ2 > 0, so dass V1 , V2 ⊂ V wobei
V1 = {x : ||x − x1 || < δ1 }, V2 = {x : ||x − x2 || < δ2 }:

∃x̂(t), ∃T : x̂(0) ∈ V1 und x̂(T ) ∈ V2

Repelloren weisen diese Eigenschaften unter negativer Zeitentwicklung auf.

Ein Attraktor ist also eine Untermenge des Zustandsraums, der sich Systemzustände
in einem bestimmten Einzugsbereich annähern und die unter der Dynamik des nicht-
linearen Systems nicht mehr verlassen wird. Nachfolgend werden wir spezielle Arten
von Attraktoren bzw. Repelloren betrachten.

4.4.1.1 Arten von Ruhelagen im Zustandsraum

Ruhelagen sind Spezialfälle von Attraktoren bzw. Repelloren. Das dynamische Verhal-
ten nichtlinearer Systeme in der Umgebung einer Ruhelage lässt sich durch die Eigen-
werte der linearisierten Systemmatrix beschreiben ähnlich wie bei linearen Systemen
(vgl. Kapitel 3.4.2). Zur Veranschaulichung betrachten wir nun ein planares System4 .
In der Umgebung einer Ruhelage (hier x = 0) eines planaren Systems mit reellen Ei-
genwerten der Systemmatrix, zeigt sich eines der Phasenporträts aus Abbildung 4.11(a)
bis Abbildung 4.11(c).
108 KAPITEL 4. KONTINUIERLICHE NICHTLINEARE SYSTEME

(a) stabiler Knoten (b) instabiler Knoten

(c) Sattel

Abbildung 4.11: Umgebung von Ruhelagen planarer Systeme mit reellen Eigenwerten.
Im Bild 4.11(c) die Trajektorien, die durch die Ruhelage laufen, sind die Separatrizes.

Laufen in der Umgebung der Ruhelage alle Trajektorien auf diese zu, so handelt es
sich um einen stabilen Knoten und um einen Attraktor (Abbildung 4.11(a)). Dieser
Fall tritt ein, wenn die Realteile beider Eigenwerte negativ sind. Der umgekehrte Fall,
dass alle Trajektorien von der Ruhelage weglaufen, tritt ein, wenn die Realteile beider
Eigenwerte positiv sind. Die Ruhelage ist dann ein instabiler Knoten und ein Repel-
lor (Abbildung 4.11(b)). Ist ein Eigenwert positiv und einer negativ, so entsteht um
die Ruhelage herum ein Sattel (Abbildung 4.11(c)) und die Ruhelage ist weder ein
Attraktor noch ein Repellor. In diesem Fall existieren Trajektorien, die auf die Ruhe-
lage zulaufen, Trajektorien, die von der Ruhelage weglaufen und Trajektorien, die die
Ruhelage gar nicht berühren.
Die Trajektorien durch die Ruhelage werden Separatrix genannt und teilen den Zu-
standsraum in "invariante" Teilmengen. Das bedeutet, dass die Trajektorien des Sys-
tems immer in der Teilmenge des Zustandsraums verlaufen, in der auch die Startwerte
liegen. Umgangssprachlich ausgedrückt, kann die Separatrix nicht überschritten wer-
4
D.h. ein System mit zwei Zuständen
4.4. DYNAMISCHES VERHALTEN NICHTLINEARER SYSTEME 109

(a) stabiler Fokus (b) instabiler Fokus

(c) Zentrum

Abbildung 4.12: Umgebung von Ruhelagen planarer Systeme mit konjugiert-


komplexem Eigenwertpaar

den. Eine weitere Größe, die das System charakterisiert ist der Einzugsbereich M . Für
stabile Ruhelage wird die Menge aller Punkte x(t0 ) des Zustandsraums als Einzugs-
bereich bezeichnet, aus denen die Trajektorien x(t) für t → ∞ gegen die Ruhelage
streben. Für die instabile Ruhelage gibt er beispielsweise an, bei welchen Startwer-
ten die instabile Ruhelage durchlaufen wird. Anstatt einer kompletten Definition der
obigen Konzepte, sollen diese anhand des folgenden Beispiels illustriert werden.
Eine ähnliche Betrachtung ist auch für planare Systeme mit komplexen Eigenwerten
möglich. Die Eigenwerte treten dabei immer als komplex konjugiertes Paar λ1/2 =
u ± iν auf. Auch hier existieren drei Fälle, die in den Abbildungen 4.12(a) bis 4.12(c)
gezeigt sind. Ist der gemeinsame Realteil u negativ, so läuft die Trajektorie spiralförmig
auf die Ruhelage zu. Das System schwingt also mit abklingender Amplitude, bis die
stabile Ruhelage erreicht ist. Diese Art der Ruhelage wird stabiler Fokus genannt und
die Ruhelage ist ein Attraktor (Abbildung 4.12(a)). Den umgekehrten Fall, dass der
Realteil u positiv ist, zeigt Abbildung 4.12(b). Hier schwingen die Zustände des Systems
mit immer größer werdender Amplitude auf. Es handelt sich um einen instabilen Fokus
und in diesem Fall ist die Ruhelage ein Repellor. Der dritte Fall ist in Abbildung 4.12(c)
zu sehen. Er tritt ein, wenn der Realteil der Eigenwerte null wird. Die Systemtrajektorie
110 KAPITEL 4. KONTINUIERLICHE NICHTLINEARE SYSTEME

läuft dann kreisförmig um die Ruhelage, das Zentrum, herum. Die Ruhelage ist in
diesem Fall weder ein Attraktor noch ein Repellor. Das System schwingt somit (grenz-
)stabil mit konstanter Amplitude, deren Betrag von den Anfangswerten abhängt.
Beispiel 4.9 (Nichtlineares System 2).
Wir betrachten das nichtlineare System (vgl. Hirsch (2004, S. 159ff ))

ẋ1 (t) = x1 (t) + x22 (t), (4.60)


ẋ2 (t) = −x2 (t). (4.61)

Die Lösung der Gleichung (4.61) ist

x2 (t) = x{2,0} e−t . (4.62)

Diese können wir in die Gleichung (4.60) einsetzen und erhalten so

ẋ1 (t) = x1 (t) + x2,0 2 e−2t . (4.63)

Die Substitution mit w(t) = x2,0 2 e−2t liefert das lineare zeitvariante System erster
Ordnung

ẋ1 (t) = x1 (t) + w (t) . (4.64)

Dieses hat die Lösung


Zt  
1 1
t
x1 (t) = e x{1,0} + e t−τ
w(τ )dτ = x{1,0} + x{2,0} et − x{2,0} 2 e−2t .
2
(4.65)
3 3
0

Abbildung 4.13 zeigt das Systemverhalten im Phasendiagramm. Es ist zu erkennen,


dass es sich bei der Ruhelage (0, 0) um einen Sattel handelt. Die Trajektorien, die auf
den Sattel zulaufen, sind durch die Bedingung x{1,0} + 13 x{2,0} 2 = 0 gegeben. Für den
zeitlichen Verlauf der Systemzustände ergibt sich dann
1
x1 (t) = − x{2,0} 2 e−2t , (4.66)
3
x2 (t) = x{2,0} e−t . (4.67)

Für die Trajektorien, die vom Sattel weglaufen, gilt die Bedingung x{2,0} = 0. Damit
ergibt sich:

x1 (t) = x{1,0} et , (4.68)


x2 (t) = 0. (4.69)

Die Separatrix S wird also durch die Menge


 
1 2
S = (x1 (t), x2 (t)) |x1 (t) + x2 (t) = 0 ∨ x2 (t) = 0 (4.70)
3
4.4. DYNAMISCHES VERHALTEN NICHTLINEARER SYSTEME 111

Abbildung 4.13: Phasendiagramm aus Beispiel 4.9. Die blaue Linienen entsprechen die
Phasentrajektorien des Dynamischensystems, die grünen Linienen sind die Separatrix.

beschrieben. In diesem Beispiel ist der Einzugsbereich M also durch


 
1 2
M = (x1 (t), x2 (t)) |x1 (t) + x2 (t) = 0 (4.71)
3
gegeben. Dies ist auch in Abbildung 4.13 zu erkennen. Weiterhin sehen wir in Abbil-
dung 4.13, dass die Trajektorien des Systems gegenüber denen aus Abbildung 4.11(c)
gekrümmt sind. Es ist möglich, das System durch eine Variablentransformation in die
Normalform mit symmetrischem Phasenporträt zu überführen. Das Vorgehen wird im
Folgenden demonstriert.
Wir betrachten das System (4.60), (4.61) und setzen
1 2
v1 (t) = x1 (t) + x2 (t), (4.72)
3
v2 (t) = x2 (t). (4.73)

Einsetzen in die Systemgleichungen ergibt


2 2 1
v̇1 (t) = ẋ1 (t) + ẋ2 (t)x2 (t) = x1 (t) + x2 2 (t) − x2 (t) 2 = x1 (t) + x2 2 (t) = v1 (t),
3 3 3
(4.74)
v̇2 (t) = x˙2 (t) = −x2 (t) = −v2 (t). (4.75)
112 KAPITEL 4. KONTINUIERLICHE NICHTLINEARE SYSTEME
Nichtlineares Beispiel - Variablentransformation
Das nichtlineare System ist in eine sogenannte Normalform überführt worden. Das
Phasenporträt ist in Abbildung 4.14 zu sehen.

v2

v1

Abbildung 4.14: Phasenporträt des transformierten Systems (Beispiel 4.9)


Modellieren &
analysieren

Simulationstechnik V18Präsentation,
Name der SS 2010 20.03.
Exakte Linearisierung: A. Isidori. Nonlinear Control Systems. 3rd edition. Springer Verlag, London. 1995.

4.4.1.2 Grenzzyklen

Ein weiteres Phänomen, das bei nichtlinearen Systemen auftreten kann, sind Grenzzy-
klen. Am Beispiel des Van-der-Pol-Oszillators wollen wir diese nun genauer betrachten.

Abbildung 4.15: Van-der-Pol-Oszillator

Beispiel 4.10 (Van-der-Pol-Oszillator). Den Aufbau des Van-der-Pol-Oszillators zeigt


Abbildung 4.15. Es handelt sich um einen Schaltkreis bestehend aus einer Stromquel-
le, einer Spule, einem Kondensator und einer Tunneldiode. Da die Tunneldiode ein
nichtlineares Bauteil ist, ist auch das Gesamtsystem nichtlinear. Die Anwendung der
4.4. DYNAMISCHES VERHALTEN NICHTLINEARER SYSTEME 113

Knotenregel und die nachfolgende Differentiation führt auf

i0 (t) = iC (t) + iT (t) + iL (t) (4.76)


di0 diC diT diL
= + + = 0. (4.77)
dt t dt t dt t dt t

Wenn wir das Kennlinienfeld der Tunneldiode iT (t) = γu3 (t) − αu(t) zusammen mit
den Bauteilgleichungen für den Kondensator und die Spule einsetzen (vgl. Kapitel 8),
erhalten wir:

1
C ü(t) + (3γu2 (t) − α)u̇(t) + u(t) = 0. (4.78)
L
q q

Mit den Substitutionen x(t) = α
u(t), t0 = t
LC
und  = CL α ergibt sich die Diffe-
rentialgleichung

ẍ(t) − (1 − x2 (t))ẋ(t) + x(t) = 0, (4.79)

die nur noch von einem Parameter  abhängt. Nach Umformung erhalten wir die Zu-
standsform

ẋ1 (t) = x2 (t), (4.80)


ẋ2 (t) = (1 − x21 (t))x2 (t) − x1 (t). (4.81)

Simuliert man dieses System mit verschiedenen Startwerten, entsteht dabei ein Pha-
senporträt, wie es in Abbildung 4.16 zu sehen ist. Wir erkennen, dass bei Simulation
mit beliebigen Startwerten mit Ausnahme der instabilen Ruhelage (0, 0) alle Trajek-
torien des Systems auf eine geschlossene Trajektorie zulaufen und sich anschließend
periodisch auf dieser bewegen. Diese Trajektorie wird Grenzzyklus genannt und ist in
diesem Fall ein Attraktor.

Durch die Zeittransformation t := −τ erhalten wir den zeittransformierten Van-der-


Pol-Oszillator

dx1
= x2 (−τ ), (4.82)
dτ −τ
dx2
= (1 − x21 (−τ ))x2 (−τ ) − x1 (−τ ). (4.83)
dτ −τ

In Abbildung 4.17 erkennen wir, dass es sich bei der Ruhelage (0, 0) nun um einen
stabilen Knoten handelt und die geschlossene Trajektorie, d.h. der Grenzzyklus, ein
abstoßendes Verhalten aufweist. Daher ist der Grenzzyklus nun ein Repellor.
114 KAPITEL 4. KONTINUIERLICHE NICHTLINEARE SYSTEME

Abbildung 4.16: Grenzzyklus des Van-der-Pol-Oszillators aus Beispiel 4.10 mit  = 1.

Abbildung 4.17: Phasenporträt des zeittransformierten Van-der-Pol-Oszillators aus


Beispiel 4.10 mit  = 1.

4.4.1.3 Seltsamer Attraktor bei chaotischen Systemen

Chaotische Systeme zeichnen sich durch eine sehr starke Abhängigkeit von den An-
fangswerten aus, so dass ihr Verhalten für große Zeiten nicht vorhersagbar ist.

Definition 4.3 (Chaotische Systeme). Beliebig kleine Änderungen des Anfangszu-


stands führen zu völlig unterschiedlichen zeitlichen Verläufen der Systemzustände.
4.4. DYNAMISCHES VERHALTEN NICHTLINEARER SYSTEME 115

(a) x0 = (0, −2, 0) (b) x0 = (0, 2, 0)

Abbildung 4.18: Phasendiagramm des Lorenz-Systems

Bei Systemen der Form ẋ(t) = f (x(t)) muss die Dimension von x größer als zwei
sein, damit Chaos auftreten kann. Bei ein- oder zweidimensionalen Systemen kann es
dagegen kein Chaos geben. Wie anhand des nachfolgenden Beispiels illustriert, sind
chaotische Systeme nicht nur mathematisch konstruiert, sondern treten auch in der
Praxis häufig auf.
Beispiel 4.11 (Lorenz-System). Als Beispiel für ein System mit chaotischem Ver-
halten betrachten wir das Lorenz-System. Es ist bei Untersuchungen über die Nicht-
Vorhersagbarkeit des Wetters entstanden und beschreibt die Atmosphäre durch einen
zweidimensionalen Fluidstrom mit einheitlicher Höhe.
Das System ist durch die Gleichungen

ẋ1 (t) = −P r · x1 (t) + P r · x2 (t), (4.84)


ẋ2 (t) = −x1 (t) · x3 (t) + Ra · x1 (t) − x2 (t), (4.85)
ẋ3 (t) = x1 (t) · x2 (t) − b · x3 (t) (4.86)

gegeben. Typische Werte für die Prandtl-Zahl P r, die Rayleigh-Zahl Ra und das Geo-
metrieverhältnis b sind
8
P r = 10, Ra = 28, b= .
3
In den Abbildungen 4.18(a) und 4.18(b) sieht man jeweils eine Trajektorie des Lorenz-
Systems für unterschiedliche Anfangswerte, die eine schräg im Raum stehende, ver-
drehte Acht durchlaufen. Dabei wiederholen sich jedoch die Trajektorien niemals genau
gleich. Die Lösungen sind daher quasi-periodisch. Dieses Verhalten wird seltsamer At-
traktor genannt.
Trägt man x1 (t) für leicht unterschiedliche Anfangswerte x2,0 mit einer Abweichung von
wenigen Prozent bei gleichbleibenden x1,0 und x3,0 über der Zeit auf, ergeben sich die
116 KAPITEL 4. KONTINUIERLICHE NICHTLINEARE SYSTEME

(a) x0 = (0, 2, 0)

(b) x0 = (0, 2.01, 0)

Abbildung 4.19: Simulation des Lorenz-Systems

Abbildungen 4.19(a) und 4.19(b). Der anfängliche Verlauf von x1 ist mit beiden Start-
werten ähnlich, jedoch weist das System bei größeren Zeiten ein vollkommen anderes
Verhalten auf. Dies ist kennzeichnend für chaotische Systeme.

Für weiterführende Informationen zu chaotischen Systemen sei auf Hirsch (2004, S.


303ff) verwiesen.

4.4.2 Bifurkation

In diesem Kapitel haben wir bisher eine Auswahl von Phänomenen nichtlinearer Sys-
teme kennen gelernt. Nun wollen wir uns damit beschäftigen, welchen Einfluss die
4.4. DYNAMISCHES VERHALTEN NICHTLINEARER SYSTEME 117

Parameter auf das qualitative Systemverhalten haben, also zum Beispiel, ob es mög-
lich ist, durch Verändern der Parameter ein chaotisches System in eines mit stationärer
Ruhelage zu überführen. Diese Änderung des Systemverhaltens wird auch als Bifur-
kation bezeichnet. Im folgenden wollen wir zwei Arten von Bifurkationen betrachten,
die häufig in technischen Systemen auftreten. Weitere Arten von Bifurkationen, die in
diesem Skript nicht behandelt werden, finden sich in Khalil (2000, S. 69ff).

4.4.2.1 Pitchfork-Bifurkation

Wir betrachten ein System, das durch die Gleichung

ẋ(t) = f (x(t), µ) = µx(t) + αx3 (t) (4.87)

gegeben ist. Es ergeben sich drei Ruhelagen:

1. Ruhelage: xR = 0
r
µ µ
2. und 3. Ruhelage: xR = ± − für <0
α α
Die Linearisierung von Gleichung (4.87) um eine Ruhelage ergibt

∆ẋ = (µ + 3αx2R )(x − xR ). (4.88)

Somit erhalten wir für das linearisierte System in der

1. Ruhelage: ∆ẋ(t) = µx(t)

und in der
r
µ
2. und 3. Ruhelage: ∆ẋ(t) = −2µ(x(t) ± − )
a
Die Eigenwerte berechnen sich zu

1. Ruhelage: λ=µ
2. und 3. Ruhelage: λ = −2µ.

Wir sehen, dass sich das Stabilitätsverhalten der Ruhelagen in Abhängigkeit von µ än-
dert. Tragen wir den Zustand x über dem Parameter µ für konstante α auf, ergeben sich
Zustands-Parameter-Diagramme, wie sie in Abbildung 4.20(a) und Abbildung 4.20(b)
zu sehen sind. Der gabelförmige Verlauf wird als Pitchfork-Bifurkation bezeichnet. Da-
bei sind die Zustände mit durchgezogener Linie stabil, während die mit gestrichelter
Linie instabil sind. Es fällt auf, dass sich die Stabilität der ersten Ruhelage bei Vor-
zeichenumkehr von α nicht ändert, während sich die Stabilität der zweiten und dritten
Ruhelage bei Vorzeichenumkehr von α ändert, da das Verhältnis αµ < 0 relevant ist.
118 KAPITEL 4. KONTINUIERLICHE NICHTLINEARE SYSTEME

2 2
λ>0
λ<0

x 0 λ<0 λ=0 λ>0 x 0 λ<0 λ=0 λ>0

λ<0 λ>0

-2 0 2 -2 0 2
μ μ
(a) α = −1 (b) α = 1

Abbildung 4.20: Zustands-Parameter-Diagramm der Pitchfork-Bifurkation

4.4.2.2 Hopf-Bifurkation

Eine weitere Art von Bifurkationen, die häufig in technischen Systemen auftritt, ist die
Hopf-Bifurkation. Auch diese wollen wir anhand eines einfachen Beispiels illustrieren:
ẋ1 (t) = µx1 (t) − ωx2 (t) + (αx1 (t) − βx2 (t))(x21 (t) + x22 (t)), (4.89)
ẋ2 (t) = ωx1 (t) + µx2 (t) + (βx1 (t) + αx2 (t))(x21 (t) + x22 (t)). (4.90)
T
Linearisierung um die Ruhelage xR = 0 0 ergibt
 
µ −ω
ẋ(t) = (x(t) − xR ). (4.91)
ω µ
Die Eigenwerte lassen sich berechnen zu
λ1/2 = µ ± iω. (4.92)
Wir erhalten also ein komplex-konjugiertes Eigenwertpaar und damit ein oszillieren-
des System. Da das System zwei Zustandsgrößen hat, ist das Zustands-Parameter-
Diagramm in diesem Fall dreidimensional (vgl. Abbildungen 4.21(a) und 4.21(b)). Wir
können erkennen, dass bei Überschreiten des kritischen Wertes (µ = 0), an dem das
komplex-konjugierte Eigenwertpaar gerade rein imaginär ist, die instabile Ruhelage in
eine stabile Ruhelage und der stabile Grenzzyklus in einen instabilen Grenzzyklus über-
geht. Ist der Grenzzyklus stabil, spricht man von einer überkritischen Hopf-Bifurkation,
ist er instabil, so handelt es sich um eine unterkritische Hopf-Bifurkation.

Abel, D. (1990). Petri-Netze für Ingenieure. Modellbildung und Analyse diskret gesteu-
erter Systeme. Springer.
4.4. DYNAMISCHES VERHALTEN NICHTLINEARER SYSTEME 119

(a) überkritisch: µ > 0 (b) unterkritisch: µ < 0

Abbildung 4.21: Zustands-Parameter-Diagramm der Hopf-Bifurkation

Bahill, A.T. und B. Gissing (1998). Re-evaluating systems engineering concepts using
systems thinking. IEEE Transactions on Systems, Man, and Cybernetics, Part C:
Applications and Reviews 28(4), S. 516 –527.

Bard, Y. (1974). Nonlinear Parameter Estimation. Academic Press New York.

Brenan, K.E., S.L. Campbell und L.R. Petzold (1996). Numerical Solution of Initial
Value Problems in Differential-Algebraic Equations. SIAM. Philadelphia, PA.

Bruns, M. (1991). Systemtechnik. Methoden zur interdisziplinären Systementwicklung.


Springer. Berlin.

Bunge, M. (1977). Treatise on Basic Philosophy. Vol. 3: Ontology I: The Furniture of


the World. D. Riedel. Dordrecht.

Bunge, M. (1979). Treatise on Basic Philosophy. Vol. 4: Ontology II: A World of Sys-
tems. D. Riedel. Dordrecht.

Cassandras, C.G. und S. Lafortune (1999). Introduction to Discrete Event Systems.


Kluwer.

Dahmen, W. und A. Reusken (2008). Numerik für Ingenieure und Naturwissenschaftler.


Springer.

David, R. und H. Alla (2005). Discrete, Continuous, and Hybrid Petri Nets. Springer.

DIN 60617-2 bis -11: Graphische Symbole für Schaltplän (1996). Beuth Verlag.

Diwekar, Urmila M. und Jayant R. Kalagnanam (1997). Efficient sampling technique


for optimization under uncertainty. AIChE Journal 43, S. 440–447.

Föllinger, O. (2008). Regelungstechnik. Hüthig Verlag, Verlagsgruppe Hüthig Jehle


Rehm GmbH, Heidelberg, München, Landsberg, Berlin.

Föllinger, O. und D. Franke (1982). Einführung in die Zustandsbeschreibung dynami-


scher Systeme. R. Oldenbourg. München.
120 KAPITEL 4. KONTINUIERLICHE NICHTLINEARE SYSTEME

Fritzson, Peter (2004). Principles of Object-Oriented Modeling and Simulation with


Modelica 2.1. IEEE Press. Wiley-Interscience. ISBN: 0-471-47163-1.

Gerdin, M. (2004). Computation of a canonical form for linear differential-algebraic


equations. Proceedings of Reglermöte (Swedish National Conference on Control),
Gothenburg, Sweden.

Gigch, J.P. van (1991). System Design Modeling and Metamodeling. Springer. New
York.

Gilles, E.D., P. Holl und W. Marquardt (1986). Dynamische Simulation komplexer


chemischer Prozesse. Chem. Ing. Tech. 58, S. 268–278.

Griepentrog, E. und R. März (1986). Differential-Algebraic equations and their nume-


rical treatment. Teubner-Texte Mathematik. Leipzig.

Hangos, K. M. und I. T. Cameron (2001). Process Modelling and Model Analysis.


Academic Press.

Hirsch, Morris W. (2004). Differential equations, dynamical systems and an introduc-


tion to chaos. Elsevier Academic Press.

J.C. Morud, S. Skogestad (1998). Analysis of instability in an industrial ammonia


reactor. AIChE Journal 44, S. 888–895.

Jerri, A.J. (1977). The Shannon sampling theorem — its various extensions and app-
lications: A tutorial review. Proc. IEEE 65, S. 1565–1596.

Jongen, H.Th. (2003). Vorlesungsskript zur Höheren Mathematik. Lehrstuhl C für Ma-
thematik, RWTH-Aachen.

Khalil, Hassan K. (2000). Nonlinear systems. Pearson Education.

Klir, G.J. (1985). Architecture of Systems Problem Solving. Plenum Press. New York.

Kramer, U. und M. Neculau (1998). Simulationstechnik. Fachbuchverlag Leipzig.

Lunze, J. (2006). Ereignisdiskrete Systeme: Modellierung und Analyse dynamischer Sys-


teme mit Automaten, Markovketten und Petrinetzen. Oldenbourg Wissenschafts-
verlag.

Marquardt, W. (2005). Simulationstechnik IV: Modellgestützte Schätzmethoden. Vorle-


sungsmanuskript. AVT-Prozesstechnik, RWTH Aachen.

Marquardt, W. (2010). Modellbildung und Analyse verfahrenstechnischer Prozesse. Vor-


lesungsmanuskript. AVT-Prozesstechnik, RWTH Aachen.
4.4. DYNAMISCHES VERHALTEN NICHTLINEARER SYSTEME 121

Minsky, M. (1965). Matter, mind and models. In: Proc. IFIP Congress Information
Processing (W.A. Kalenich, Hrsg.). Vol. 1. New York City, Mai 1965. Spartan
Books. Washington. S. 45–49.

Patzak, G. (1982). Systemtechnik - Planung komplexer innovativer Systeme. Springer.


Berlin.

Schlegel, Martin, Wolfgang Marquardt, Rainald Ehrig und Ulrich Nowak (2004). Sen-
sitivity analysis of linearly-implicit differential-algebraic systems by one-step ex-
trapolation. Appl. Numer. Math. 48(1), S. 83–102.

Shannon, C.E. (1998). Communication in the presence of noise. Proc. IEEE (Nach-
druck) 86, S. 447–457.

Shannon, R.E. (1975). Systems Simulation: The Art and Science. Prentice-Hall, Engle-
wood Cliffs, NJ.

Simon, H.A. (1981). The Sciences of the Artificial. 2. Auflage. The MIT Press. Cam-
brige, MA.

Stephanopoulos, G., G. Hennig und H. Leone (1990). MODEL.LA. A modeling lan-


guage for processs engineering. Comput. Chem. Engng 14, S. 813–869.

Unbehauen, H. (2007). Regelungstechnik II: Zustandsregelungen, digitale und nichtli-


neare Regelsysteme. 9. Auflage. Friedrich Vieweg & Sohn Verlag.

Unbehauen, R. (1993). Systemtheorie. 6. Auflage. R. Oldenbourg. München.

van der Schaft, A. J. und J. M. Schumacher (1999). An Introduction to Hybrid Dyna-


mical Systems. Springer, Berlin.

VDI-Richtlinie 3633 Blatt 1 (2000). Simulation von Logistik-, Materialfluss- und Pro-
duktionssystemen, Grundlagen. VDI-Handbuch Materialfluss und Fördertechnik,
Band 8. Gründruck, Beuth, Berlin.

Zeigler, B.P. (1984). Multi-facetted Modeling and Discrete Event Simulation. Academic
Press. London.
122 KAPITEL 4. KONTINUIERLICHE NICHTLINEARE SYSTEME
Kapitel 5

Differential-algebraische Systeme

In Kapitel 2 wurde die Zustandsdarstellung als Konzept zur Beschreibung von dy-
namischen Systemen eingeführt. Die Zustandsdarstellung eines Systems besteht aus
Zustandsgrößen x(t), deren zeitlicher Verlauf durch Zustandsgleichungen beschrieben
wird, Eingangsgrößen u(t), deren zeitlicher Verlauf vorgegeben ist, Ausgangsgrößen
y(t), die explizit über Ausgangsgleichungen aus den Zustandsgrößen und den Ein-
gangsgrößen berechnet werden, sowie Parametern p, welche zeitunabhängige bekannte
Größen in den Zustands- und Ausgangsgleichungen beschreiben:
Zustandsgleichung ẋ(t) = f (x(t), u(t), p, t) (5.1)
Ausgangsgleichung y(t) = h(x(t), u(t), p, t)

Diese Darstellung eines dynamischen Systems (oder dessen linearer Spezialfall, vgl.
Kap. 3) ist sehr nützlich für die Analyse des Systemverhaltens und die Implementierung
in Simulatoren.
Bei der Modellierung physikalischer Systeme werden jedoch häufig Zusammenhänge
nicht über Differentialgleichungen, sondern durch algebraische Gleichungen modelliert.
Solche Systeme können allgemein in der Form
ẋ(t) = f (x(t), z(t), u(t), p, t)
0 = g(x(t), z(t), u(t), p, t) (5.2)
y(t) = h(ẋ(t), x(t), z(t), u(t), p, t)
mit Eingängen u(t) und Parametern p geschrieben werden. x(t) ist hierbei der Vektor
von differentialen Größen, deren Ableitungen ẋ(t) in den Systemgleichungen vorkom-
men, und z(t) der Vektor der algebraischen Größen, deren Ableitungen nicht explizit
auftreten. y(t) ist der Vektor der Ausgangsgrößen.
Man bezeichnet diese Systeme als differential-algebraische Systeme, kurz auch DA-
Systeme, DAS oder DAE1 . Der wesentliche Unterschied zu den Zustandsraumsystemen
1
engl.: Differential-Algebraic Equations

123
124 KAPITEL 5. DIFFERENTIAL-ALGEBRAISCHE SYSTEME

aus den Kapiteln 2–4 ist, dass bei diesen Systemen die differentiellen Gleichungen nicht
(wie die Zustandsgleichungen der Zustandsraumsysteme) von den übrigen Gleichungen
getrennt gelöst werden können, sondern mit den algebraischen Gleichungen zusammen
gelöst werden müssen. Die zusätzlichen algebraischen Gleichungen schränken den Lö-
sungsraum des differentiellen Systems sowie dessen Anfangswerte ein. Aufgrund dieser
Eigenschaften ist es nicht möglich, diese Systeme mit den herkömmlichen Methoden
für gewöhnliche Differentialgleichungen zu lösen.
In diesem Kapitel werden Aspekte der Darstellung und Analyse von DA-Systemen
beschrieben, die über die vorigen Kapitel hinausgehen und zum Verständnis der Simu-
lation von DA-Systemen notwendig sind.

5.1 Formale Darstellung von DA-Systemen


Anders als bei der Zustandsdarstellung gibt es für DA-Systeme nicht nur eine einzige,
allgemeine und etablierte Darstellung der Gleichungen. Je nach Anwendungsfall können
ganz unterschiedliche Darstellungen für DA-Systeme gewählt werden. Viele Methoden
zur Analyse und Lösung von DA-Systemen erfordern allerdings ausdrücklich die Dar-
stellung des Systems in der einen oder anderen mathematischen Form. Üblich sind u.a.
die folgenden Darstellungen:

• Semi-explizites DA-System mit separierten expliziten Differentialgleichungen und


algebraischen Gleichungen (identisch zu (5.2)):

ẋ(t) = f (x(t), z(t), u(t), p, t), x(t0 ) = x0


0 = g(x(t), z(t), u(t), p, t), (5.3)
y(t) = h(x(t), z(t), u(t), p, t)

• Implizites DA-System mit differentiellen Variablen x(t) und algebraischen Varia-


blen z(t) :

0 = f (ẋ(t), x(t), z(t), u(t), p, t), x(t0 ) = x0


0 = g(x(t), z(t), u(t), p, t) (5.4)
y(t) = h(x(t), z(t), u(t), p, t)

Hier sind bereits zusätzliche Ausgangsgleichungen y(t) = h(x(t), z(t), u(t), p, t) hin-
zugefügt worden.
In welcher mathematischen Form ein DA-System dargestellt wird, hängt von der be-
absichtigten Anwendung ab und davon, ob die Gleichungen in der gewünschten Form
darstellbar sind. Die Umformung von einem impliziten (5.4) in ein semi-implizites DA-
System (5.2) erfordert, dass f nach ẋ(t) auflösbar ist.
5.2. ÜBERFÜHRUNG IN DIE ZUSTANDSDARSTELLUNG 125

5.2 Überführung von DA-Systemen in die Zustands-


darstellung
Simulationsmodelle für elektrische, mechanische oder thermodynamische Systeme sind
oft DA-Systeme. Um auf diese Systeme direkt die Analyse- und Lösungsmethoden
aus Kap. 2–4 anzuwenden, bietet sich eine Umformung in die Zustandsdarstellung an.
Im Folgenden wird die allgemeine Vorgehensweise der Überführung von nichtlinearen
DA-Systemen in die Zustandsdarstellung beschrieben. Es wird gezeigt, dass nicht alle
DA-Systeme in Zustandsdarstellung gebracht werden können.

5.2.1 Direkte Überführung durch Substitution

Es sei ein DA-System in der Form (5.2) gegeben, welches in Zustandsdarstellung über-
führt werden soll2 :
DA-System
Zustandsdarstellung
ẋ(t) = f (x(t), z(t), u(t), p, t)
z(t)=g̃(x(t),u(t),p,t) ẋ(t) = f˜(x(t), u(t), p, t)
0 = g(x(t), z(t), u(t), p, t) →
y(t) = h̃(x(t), u(t), p, t)
y(t) = h(x(t), z(t), u(t), p, t)

Ist g nach z(t) auflösbar, so kann z(t) in f (x(t), z(t), u(t), p, t) und in
h(x(t), z(t), u(t), p, t) substituiert werden:

z(t) = g̃(x(t), u(t), p, t) ,


ẋ(t) = f (x(t), g̃(x(t), u(t), p, t), u(t), p, t) = f˜(x(t), u(t), p, t),
y(t) = h(x(t), g̃(x(t), u(t), p, t), u(t), p, t) = h̃(x(t), u(t), p, t) .

Das System

ẋ(t) = f˜(x(t), u(t), p, t) , (5.5)


y(t) = h̃(x(t), u(t), p, t)

ist somit in Zustandsdarstellung überführt worden.


Ist g nicht nach z(t) auflösbar, so ist eine direkte Überführung in Zustandsdarstellung
nicht ohne weiteres möglich. In diesem Fall können eine Reihe von Komplikationen
auftreten:

• Nicht alle Anfangswerte x(t0 ) der differentiellen Größen sind frei wählbar. Sie
unterliegen z.T. Einschränkungen.
2
Die Überführung von der allgemeinen Darstellung (5.4) nach (5.2) durch Auflösen nach ẋ soll hier
nicht behandelt werden. Es sei nur gesagt, dass dies auch nicht immer möglich ist.
126 KAPITEL 5. DIFFERENTIAL-ALGEBRAISCHE SYSTEME

g
z

m vx

vz

Abbildung 5.1: Pendel-System

• Die Einschränkungen können „unsichtbar“ sein, d.h. nicht explizit in den Modell-
gleichungen angegeben sein.

• Die Initialisierung der Simulation des Systems, d.h. die Berechnung aller An-
fangswerte x(t0 ) und z(t0 ), ist nicht mehr ohne weiteres möglich.

Aus diesem Grund ist eine Analyse der Systemeigenschaften vor Beginn der Simulation
sinnvoll.

Beispiel 5.1 (DA-System des mathematischen Pendels). Die Bewegung eines Pen-
dels sei durch die Position in einem kartesischen Koordinatensystem beschrieben mit
rx (t) und rz (t) als Positionen, vx (t) und vz (t) als Geschwindigkeiten der Pendelmasse,
ϕ(t) als Auslenkung des Pendels. Die Anwendung der Newton’schen Gesetze ergibt die
Modellgleichungen

mv̇x (t) = −F (t) sin(ϕ(t)) , mv̇z (t) = mg − F (t) cos ϕ(t) ,


(5.6)
ṙx (t) = vx (t) , ṙz (t) = vz (t)

mit m als Masse des Pendels und F als Schnittkraft im Pendelstab. Die Bewegung des
Pendels ist auf eine Kreisbahn mit Radius L beschränkt. Daher muss die kinematische
Bindung der Kreisbahn der Masse

0 = L2 − (rx2 (t) + rz2 (t)) (5.7)

ergänzt werden. Die Auslenkung ϕ wird aus

0 = rx (t) − L sin(ϕ(t)) (5.8)

berechnet. Mit

x(t) = [vx (t), vz (t), rx (t), rz (t)]T , z(t) = [ϕ(t), F (t)]T , p = [m, L, g]T , y(t) = ϕ(t)
5.2. ÜBERFÜHRUNG IN DIE ZUSTANDSDARSTELLUNG 127

und

− Fm(t) sin(ϕ(t))
 
g − F (t) cos(ϕ(t))
ẋ(t) = f (x(t), z(t), p, t) =  m , (5.9)
 vx (t) 
vz (t)
 
rx (t) − L sin(ϕ(t))
0 = g(x(t), z(t), p, t) = , (5.10)
L2 − rx2 (t) − rz2 (t)
y(t) = h(x(t), z(t), p, t) = ϕ(t) (5.11)

ist dies ein autonomes, nichtlineares DA-System, d.h. ein nichtlineares DA-System, auf
das keine Eingänge u(t) wirken.

Die algebraischen Gleichungen (5.10) müssen nach ϕ(t) und F (t) auflösbar sein, um
die algebraischen Variablen z(t) in Gl. (5.9) substituieren und das System in Zustands-
raumdarstellung umformen zu können. Hier ist dies jedoch nicht möglich, da F nur
in den differentiellen Gleichungen (5.9) vorkommt, nicht aber in den algeb(t)raischen
Gleichungen (5.10). Das System kann also allein durch Substitution nicht in Zustands-
darstellung umgeformt werden.

5.2.2 Der differentielle Index eines DA-Systems

Im vorigen Abschnitt wurde die Umformung von einem expliziten DA-System in die
Zustandsdarstellung erläutert:

DA-System
Zustandsdarstellung
ẋ(t) = f (x(t), z(t), u(t), p, t)
z=g̃(x(t),u(t),p,t) ẋ(t) = f˜(x(t), u(t), p, t)
0 = g(x(t), z(t), u(t), p, t) →
y(t) = h̃(x(t), u(t), p, t)
y(t) = h(x(t), z(t), u(t), p, t)

Ein aus mathematischer Sicht wichtiger Unterschied zwischen der linken und der rech-
ten Darstellung ist, dass Formelausdrücke für die zeitlichen Ableitungen dx dt
aus der
rechten Darstellung leicht abgeleitet werden können, während dies für ein DA-System
nur dann ohne weiteres möglich ist, wenn die Funktion g̃ : (x(t), u(t), p(t), t) → z(t)
existiert, sonst kann f nicht evaluiert werden. Für die numerische Lösung müssen die
Ableitungen aber in irgendeiner Form bestimmt werden, damit das System integriert
werden kann.

Für DA-Systeme, bei denen die Funktion z(t) = g̃(x(t), u(t), p, t) nicht existiert (wie
z.B. im Fall des Pendel-Beispiels), ist eine Überführung in Zustandsdarstellung (und
damit die Ableitung von Formelausdrücken für dx dt
, die nicht von den algebraischen
128 KAPITEL 5. DIFFERENTIAL-ALGEBRAISCHE SYSTEME

Variablen z(t) abhängen) durch Ableiten der algebraischen Gleichungen g und Substi-
tution der auftauchenden Ausdrücke möglich: 3

0 = g(x(t), z(t), u(t), p, t)


Zeitableitung dg ∂g dx ∂g dz ∂g du
−−−−−−−→ 0 = = + + (5.12)
dt t ∂x dt t ∂z dt t ∂u dt t
∂g ∂g ∂g
= f (x(t), z(t), u(t), p, t) + ż(t) + u̇(t) (5.13)
∂x ∂z ∂u
= g1 (x(t), z(t), ż(t), u(t), u̇(t), p, t) .

Können die Gleichungen (5.13) nach ż(t) aufgelöst werden, ist also die Matrix ∂z
∂g

invertierbar, so kann das System in die Zustandsraumdarstellung überführt werden.


Ist dies nicht der Fall, so sollte das neue System

ẋ(t) = f (x(t), z(t), u(t), p, t), x(t0 ) = x0


0 = g1 (x(t), z(t), ż(t), u(t), p, t), (5.14)
y(t) = h(x(t), z(t), u(t), p, t)

in ein System der Form (5.2) (mit unterschiedlichen x(t) und z(t)) umgeformt werden.
Dieses System ist äquivalent zum ursprünglichen System, falls die Anfangsbedingugen
die algebraischen Gleichungen g erfüllen. Im nächsten Schritt werden die algebraischen
Gleichungen wieder nach der Zeit abgeleitet. Dies wird solange wiederholt, bis die
Matrix ∂z
∂g
invertierbar ist.
Die Zahl der Differentiationen des Systems oder Teil-Systems ν, die für die Herleitung
von expliziten Differentialgleichungen für alle differentiellen und algebraischen Größen
eines DA-Systems erforderlich ist, wird differentieller Index des DA-Systems genannt.
Dabei müssen die Funktionen auf der rechten Seite der Differentialgleichungen konti-
nuierlich sein. Es gelten folgende Eigenschaften:

• Ein Index von Null bezeichnet ein gewöhnliches Differentialgleichungssystem


(DGL).

• Ein System in Zustandsdarstellung nach (5.1) hat den Index 1 (aufgrund der
Ausgangsgleichungen, die algebraisch sind).
3
Die Ableitungen sind wie folgt zu lesen: Die Ableitung der vektorwertigen Funktion g nach dem
∂g ∂g ∂gi
Vektor x ist eine Matrix ∂x , mit ∂x = ∂x j
. D.h. der Eintrag in Zeile i und Spalte j enthält die
ij
dg
partielle Ableitung des i-ten Elements von g nach dem j-ten Element von  x. dt ist die Ableitung
des Vektors g nach der skalaren Größe t. dgdt ist ein Spaltenvektor mit
dg
dt = dg i
dt . Es gelten die
i
gleichen Ableitungsregeln wie bei skalaren Funktionen (Kettenregel etc.)
5.2. ÜBERFÜHRUNG IN DIE ZUSTANDSDARSTELLUNG 129

• Ein DA-System kann den Index 1 haben, auch wenn es nicht in der Zustandsdar-
stellung nach (5.1) formuliert ist. Hinreichende Voraussetzung ist, dass es allein
durch rein algebraische Umformung und Substitution von Variablen in Zustands-
darstellung gebracht werden kann.

• DA-Systeme mit nicht invertierbaren algebraischen Gleichungen haben einen In-


dex größer 1. Um diese Systeme in Index-1 Systeme umzuformen, müssen die
algebraischen Gleichungen abgeleitet werden. Dieser Vorgang wird als Indexre-
duktion bezeichnet.

Der differentielle Index ist eine wichtige Eigenschaft eines Gleichungssystems, da vie-
le Löser für differentielle Systeme nur DA-Systeme mit Index 1 stabil lösen können.
Manche Simulationsprogramme (darunter auch Dymola) verfügen über Routinen, um
ein gegebenes Modell zur Simulation intern in ein Index-1 System umzuformen. Al-
lerdings ist das nur bei kleineren Systemen praktikabel. Ist das Simulationsprogramm
nicht dazu in der Lage, muss der Anwender sein Modell selber in ein Index-1 System
umformen.
Ein wichtiger Punkt ist, dass beim Ableiten der algebraischen Gleichungen „versteckte“
Gleichungen auftauchen, die nur Ableitungen oder Kombinationen der Gleichungen
des ursprünglichen Systems sind. Diese Gleichungen enthalten natürlich keine neue
Information über das System. Werden die zusätzlichen Gleichungen einfach zum System
hinzugefügt, so erhält man ein überbestimmtes System. Daher muss eine Teilmenge der
Gleichungen ausgewählt werden, mit der das System gelöst wird. Die vorgeschlagene
Wahl der Gleichungen für die Simulation wird im nächsten Kapitel vorgestellt.
Beispiel 5.2 (Umformung des Pendel-Systems aus Beispiel 5.1 in die Zustandsdar-
stellung). In Beispiel 5.1 wurde festgestellt, dass die algebraischen Gleichungen des
Pendel-Systems nicht nach den algebraischen Variablen z(t) = [ϕ(t), F (t)]T auflös-
bar sind. Durch Ableiten und Einsetzen kann das System in Zustandsraumdarstellung
umgeformt werden und dadurch dessen Index bestimmt.
Die algebraischen Gleichungen des Pendel-Modells
 
rx (t) − L sin(ϕ(t))
0 = g(x(t), z(t), p, t) = (5.15)
L2 − rx2 (t) − rz2 (t)

müssen zuerst abgeleitet werden.

− L cos(ϕ(t))) dϕ vx (t) − L cos(ϕ(t)) dϕ


 drx   
0 = g1 (x(t), z(t), p, t) = dt t dt t = dt t
−2rx (t) drdtx t − 2rz (t) drdtz t 2(rx (t)vx (t) + rz (t)vz (t))
(5.16)

Man sieht sofort, dass das System nicht nach ż(t) aufgelöst werden kann, da weder
F (t) noch Ḟ (t) in den Gleichungen auftauchen. Wir schreiben also ein neues System
130 KAPITEL 5. DIFFERENTIAL-ALGEBRAISCHE SYSTEME

in der Form (5.2):


 
− Fm(t) sin(ϕ(t))
F (t)
g − m cos(ϕ(t))
 
ẋ(t) = f (x(t), z(t), p, t) =  vx (t) (5.17)
 

vz (t)
 
 
vx (t)
L cos(ϕ(t))

0 = g(x(t), z(t), p, t) = rx (t)vx (t) + rz (t)vz (t) (5.18)


y(t) = h(x(t), z(t), p, t) = ϕ(t) (5.19)

mit x(t) = [vx (t), vz (t), rx (t), rz (t), ϕ(t)]T und z(t) = [F (t)]. Die algebraische Gleichung
wird abgeleitet und die entsprechenden Modellgleichungen eingesetzt:

0 = g2 (x(t), z(t), p, t)
 
F (t) F (t)
2
= vx (t) − rx (t) 2
sin(ϕ(t)) + vz (t) + rz (t) g − cos(ϕ(t)) . (5.20)
m m

Auch diese Gleichung kann nicht nach ż(t) aufgelöst werden. Wieder schreiben wir das
System in der Form (5.2):
 F (t) 
− m sin(ϕ(t))
F (t)
g − m cos(ϕ(t))
 
ẋ(t) = f (x(t), z(t), p, t) =  vx (t) (5.21)
 

vz (t)
 
 
vx (t)
L cos(ϕ(t))

0 = g(x(t), z(t), p, t)
 
F (t) F (t)
2
= vx (t) − rx (t) 2
sin(ϕ(t)) + vz (t) + rz (t) g − cos(ϕ(t)) (5.22)
m m
y(t) = h(x(t), z(t), p, t) = ϕ (5.23)

Nach diesem Schritt kann g explizit nach F (t) aufgelöst werden, und auf diese Weise
Ḟ (t) erhalten werden. Das ursprüngliche System hat damit Index 3. Durch die Wahl,
ausschließlich die differentiellen Gleichungen zur Lösung des Systems zu benutzen, liegt
das System nun in der Zustandsdarstellung vor.

5.2.3 Auswahl von Gleichungen zur numerischen Lösung

Durch Indexreduktion kann ein DA-System mit hohem Index (Index größer 1) in ein
Index-1 System umgeformt werden. Dabei werden, wie im vorigen Abschnitt erklärt,
5.2. ÜBERFÜHRUNG IN DIE ZUSTANDSDARSTELLUNG 131

durch Differenzieren der algebraischen Gleichungen und Ersetzen der dabei auftauchen-
den Ableitungen zusätzliche Gleichungen erzeugt, die nach den algebraischen Variablen
z aufgelöst werden können. Die Gesamtheit der ursprünglichen Gleichungen und der
bei der Indexreduktion erzeugten Gleichungen ist ein überbestimmtes System:

Überbestimmtes System
DA-System, Index > 1  
ẋ(t)
ẋ(t) = f (x(t), z(t), u(t), p, t) = Φ(x(t), z(t), u(t), u̇(t), . . . , p, t)
ż(t)
0 = g(x(t), z(t), u(t), p, t) →
0 = Ψ(x(t), z(t), u(t), u̇(t), . . . , p, t)
y(t) = h(x(t), z(t), u(t), p, t)
y(t) = h(x(t), z(t), u(t), p, t)
(5.24)

Hierbei bezeichnet Φ die Menge aller Differentialgleichungen, also sowohl die Glei-
chungen f für ẋ(t) des ursprünglichen Systems, als auch die durch Ableitung der al-
gebraischen Gleichungen erhaltenen Gleichungen für ż(t). Ψ bezeichnet die Menge der
ursprünglichen algebraischen Gleichungen 0 = g(x(t), z(t), u(t), u̇(t), . . . , p, t) sowie
die bei der Index-Reduktion zusätzlich entstehenden algebraischen Gleichungen.

Bei den zusätzlichen algebraischen Gleichungen handelt es sich um versteckte Gleichun-


gen, die im ursprünglichen Modell nicht explizit sichtbar waren. In Beispiel 5.2 sind
dies die versteckte kinematische Beziehung (5.18) und Gleichung (5.22) für die Kraft
F (t). Je höher der differentielle Index eines DA-Systems ist, desto mehr versteckte
Gleichungen enthält das System.

Um das überbestimmte System in Gl. (5.24) numerisch zu lösen, muss also eine Teilmen-
ge der Gleichungen ausgewählt werden. Die Lösung wird, wenn sie korrekt berechnet
wurde, auch die nicht ausgewählten Gleichungen erfüllen. Das Differentialgleichungs-
System

 
ẋ(t)
= Φ(x(t), z(t), u(t), u̇(t), . . . , p, t) (5.25)
ż(t)

hat den Index 0, weil die Zeitableitungen aller Variablen explizit ohne weitere Differen-
tiation berechenbar sind. Es ist für eine numerische Lösung aber im Allgemein nicht
geeignet, da der sog. Integrationsfehler bei der numerischen Lösung von Differential-
gleichungen (Dahmen und Reusken 2008) dazu führt, dass die (nicht ausgewählten)
algebraischen Gleichungen (im erweiterten System als Ψ dargestellt) nicht mehr erfüllt
sind.

Für eine numerische Lösung weitaus besser geeignet ist das Index-1 System, welches
man durch Auswahl aller algebraischen Gleichungen und so vieler differentieller Glei-
chungen, wie erforderlich sind, erhält, um auf ein vollständig spezifiziertes System (Zahl
132 KAPITEL 5. DIFFERENTIAL-ALGEBRAISCHE SYSTEME

der Gleichungen entspricht der Zahl der Variablen) zu kommen:


  Überbestimmtes System (Index 0)
ẋ(t)
= Φ(x(t), z(t), u(t), u̇(t), . . . , p, t)
ż(t)
0 = Ψ(x(t), z(t), u(t), u̇(t), . . . , p, t)
y(t) = h(x(t), z(t), u(t), p, t)
DA-System mit Index 1
ξ̇(t) = Γ(ξ(t), η(t), u(t), u̇(t), . . . , p, t)
Auswahl von Gleichungen
−−−−−−−−−−−−−−→ 0 = Ψ(ξ(t), η(t), u(t), u̇(t), . . . , p, t) (5.26)
y(t) = h(ξ(t), η(t), u(t), p, t)
mit ξ(t) als Vektor ausgewählter Komponenten von [x(t), z(t)]T und η(t) als Vektor
der übrigen Komponenten von x(t) und z(t), sowie Γ als Auswahl von Differentialglei-
chungen aus Φ zur Berechnung von ξ̇(t).
Die differentiellen Größen ξ(t) des Index-1 Systems bezeichnen wir als Zustände mit
frei wählbaren Anfangsbedingungen4 . Nur für diese Variablen können Anfangswerte
frei vorgegeben vorgegeben werden, so dass eine Lösung der algebraischen Gleichungen
existiert:
ξ(t0 ) = ξ0
⇒ ∃ η0 so dass 0 = Ψ(ξ0 , η0 , u(t0 ), u̇(t0 ), . . . , p, t0 ) . (5.27)
Beispiel 5.3 (Auswahl von Gleichungen zur numerischen Lösung des Pendel-Systems
aus Beispiel 5.1). In Beispiel 5.2 wurde festgestellt, dass das Pendel-System Index 3
hat. Die bei der Differentiation entstandenen zusätzlichen Gleichungen führen zu einem
überbestimmten System:
 
− Fm(t) sin(ϕ(t))
g − Fm(t) cos(ϕ(t))
 
 
v (t)
   
ẋ(t)  x
 (5.28)

= Φ(x(t), z(t), u(t), u̇(t), . . . , p, t) =  vz (t)
ż(t)  
 vx (t) 
L cos(ϕ(t))
 
2 2
 
d vx (t)+vz (t)+rz (t)g
(
dt rx (t) rz (t) )
m
sin(ϕ(t))+ m
cos(ϕ(t))

0 = Ψ(x(t), z(t), u(t), u̇(t), . . . , p, t)


 
rx (t) − L sin(ϕ(t))
 L2 − rx2 (t) − rz2 (t) 
= (5.29)
 
 rx (t)vx (t) + rz (t)vz (t)  

vx 2 (t) − rx (t) Fm(t) sin(ϕ(t)) + vz 2 (t) + rz (t) g − Fm(t) cos(ϕ(t))
y(t) = h(x(t), z(t), p, t) = ϕ(t) (5.30)
4
In Dymola werden die differentiellen Variablen des zur numerischen Lösung verwendeten Sys-
tems als continuous-time states bezeichnet, die algebraischen Variablen als time-varying variables. In
Lehrbüchern und wissenschaftlicher Literatur ist die Nomenklatur hierzu aber nicht eindeutig.
5.3. LÖSBARKEIT UND STABILITÄT 133

Um ein Index-1 System zu bekommen, wählt man alle algebraischen Gleichungen und
zwei differentielle Gleichungen aus:

− Fm(t) sin(ϕ(t))
 
ξ̇(t) = Γ(ξ(t), η(t), u(t), u̇(t), . . . , p, t) = (5.31)
vx (t)
0 = Ψ(ξ(t), η(t), u(t), u̇(t), . . . , p, t)
 
rx (t) − L sin(ϕ(t))
 L2 − rx2 (t) − rz2 (t) 
= (5.32)
 
 rx (t)vx (t) + rz (t)vz (t)  

vx 2 (t) − rx (t) Fm(t) sin(ϕ(t)) + vz 2 (t) + rz (t) g − Fm(t) cos(ϕ(t))
y(t) = h(ξ(t), η(t), p, t) = ϕ(t) (5.33)

Anfangswerte können frei vorgegeben werden für die differentiellen Größen ξ:

ξ(t0 ) = ξ0

5.3 Lösbarkeit und Ruhelagen von DA-Systemen


Die Betrachtung von Lösbarkeit und Ruhelagen für DA-Systeme wird schnell sehr kom-
pliziert. In den nächsten Abschnitten werden kurz die Ansätze für lineare und nichtli-
neare Systeme vorgestellt. Für die weitergehenden Betrachtungen wird auf die Literatur
verwiesen.
Für lineare Systeme ist die Theorie zur Lösbarkeit und Existenz von Ruhelagen weitge-
hend abgeschlossen; die Analyse nichtlinearer DA-Systeme ist immer noch Gegenstand
der aktuellen Forschung. Hier wird gezeigt, wie die Lösbarkeit und die Existenz von
Ruhelagen geprüft werden können.
Allgemeine nichtlineare DA-Systeme sind ausgesprochen schwierig zu analysieren. Da-
her bedient man sich meist der Indexreduktion um ein Index-1 System in Zustandsdar-
stellung zu erhalten, welches dann mit den in Kap. 4 vorgestellten Methoden untersucht
werden kann.

5.3.1 Lösbarkeit linearer DA-Systeme

Die Lösungen der DA-Systeme liegen in einem Unterraum des Zustandsraumes. Dieser
Unterraum wird durch die algebraischen Gleichungen des erweiterten Systems aufge-
spannt. Auch die Anfangswerte des DA-Systems müssen in diesem Unterraum liegen,
damit eine Lösung existieren kann. Man spricht von konsistenten Anfangswerten. Der
134 KAPITEL 5. DIFFERENTIAL-ALGEBRAISCHE SYSTEME

differentielle Index gibt auch die notwendige Glattheit der Eingangsgröße u(t) vor: u
muss (Index-1)-mal stetig differenzierbar sein.
Um die Lösbarkeit von DA-Systemen zu untersuchen, führen wir das Konzept des Ma-
trixbüschels ein. Sind zwei n×n-Matrizen A und M gegeben, so heißt die matrixwertige
Funktion
(A, M ) : C → Cn×n , λ 7→ A + λM (5.34)
(lineares) Matrixbüschel. Das Matrixbüschel heißt regulär, wenn für mindestens ein
λ ∈ C die Matrix A + λM invertierbar ist.
Die eindeutige Lösbarkeit von DA-Systemen kann mit Hilfe des „Impliziten Euler-
Schrittes“ illustriert werden, bei dem die Zeitableitung durch eine Rückwärtsdifferenz
approximiert wird. Wir betrachten das lineare, autonome DA-System
M ẋ(t) = Ax(t) (5.35)
Mit x(t0 ) = x0 und x(t0 + h) = x1 erhält man für das System (5.35)
x1 − x0
M = Ax1 , (5.36)
h
 −1
1 1
x1 = − A− M x0 (5.37)
h h
oder mit λ = −1/h
x1 = λ(A + λM )−1 x0 .
Für die Existenz einer eindeutigen („numerischen“) Lösung muss
∃ λ ∈ R : det(A + λM ) 6= 0
gelten. Außerdem müssen die Anfangswerte x(t0 ) = x0 konsistent sein, d.h. in einem
Unterraum, der durch die algebraischen Gleichungen des erweiterten Systems aufge-
spannt wird, liegen und u(t) muss hinreichend glatt sein. Genauer gesagt müssen sie
(Index-1)-mal stetig differenzierbar sein. Wenn det(A + λM ) = 0 für alle λ ∈ R, dann
existiert keine Lösung oder es existieren unendlich viele Lösungen.
Für den Nachweis der analytischen Lösbarkeit sei auf weiterführende Literatur verwie-
sen (Griepentrog und März (1986), Brenan et al. (1996), Gerdin (2004)).

5.3.2 Lösbarkeit und Ruhelagen nichtlinearer DA-Systeme


5.3.2.1 Lösbarkeit nichtlinearer differential-algebraischer Systeme

Viele nichtlineare, differential-algebraische Systeme lassen sich in der Form


   
ẋ(t) f (x(t), z(t), u(t), p, t)
M = , x(t0 ) = x0 , (5.38)
ż(t) g(x(t), z(t), u(t), p, t)
y(t) = h(x(t), u(t), p, t) (5.39)
5.3. LÖSBARKEIT UND STABILITÄT 135

mit konstanter singulärer Matrix M darstellen. Diese Form kommt meist bei der Mo-
dellierung technischer Systeme vor. Für die Lösbarkeit von nichtlinearen differential-
algebraischen Systemen müssen wie im linearen Fall die Anfangswerte x(t0 ) = x0
konsistent und u(t) hinreichend glatt sein. Im Gegensatz zu linearen differential-
algebraischen Systemen kann jedoch bei nichtlinearen differential-algebraischen Syste-
men keine Aussage über die Lösbarkeit mit Hilfe eines Matrixbüschels getroffen werden,
wie mit dem folgenden Beispiel illustriert werden kann.

Beispiel 5.4 (Matrixbüschel bei nichtlinearen Systemen).


Wir betrachten ein nichtlineares differential-algebraisches System der Form

ẋ1 (t) = −αx1 (t) + x2 (t) , (5.40)


0 = βx1 (t) + x2 2 (t) (5.41)

mit α, β ∈ R und konsistenten Anfangswerten x0 . Wir versuchen nun die Lösbarkeit


des Systems
 
λ−α 1
det (fx + λM ) = det (5.42)
β 2x2 (t)

zu überprüfen. Dieses Matrixbüschel ist regulär und ergibt sich durch Linearisierung
von (5.40) und (5.41) an einem beliebigen Referenzpunkt (x1 (t), x2 (t))T . Wir schließen
jedoch aus (5.40) und (5.41), dass eine reelle Lösung des Systems mit Ausnahme der
trivialen Lösung x1 (t) = x2 (t) = 0 nur für negative Parameter β existieren kann. Daher
ist es nicht möglich, mit dem Matrixbüschel eine Aussage über die Lösbarkeit zu treffen.

Falls das nichtlineare differential-algebraische System in Zustandsdarstellung überführt


werden kann, kann mit dem Satz von Picard-Lindelöf festgestellt werden, ob es lösbar
ist. In der Regel existiert dann eine eindeutige Ruhelage.
Falls eine Überführung in Zustandsdarstellung nicht möglich ist, ist die Analyse der
Existenz einer eindeutigen Lösung sehr schwierig und bisher nur in Spezialfällen gege-
ben (Griepentrog und März (1986), Brenan et al. (1996)).

5.3.2.2 Ruhelagen nichtlinearer DA-Systeme

Die Bestimmung von Ruhelagen nichtlinearer differential-algebraischer Systeme erfolgt


analog zu den nichtlinearen Systemen in Zustandsdarstellung. Wir betrachten ein nicht-
lineares differential-algebraisches System in der Form:
   
ẋ(t) f (x(t), z(t), u(t), p, t)
M = , x(t0 ) = x0 (5.43)
ż(t) g(x(t), z(t), u(t), p, t)
y(t) = h(x(t), z(t), u(t), p, t) (5.44)
136 KAPITEL 5. DIFFERENTIAL-ALGEBRAISCHE SYSTEME

Einsetzen der Bedingungen (ẋT (t), ż T (t))T = 0 und u(t) = konst. = uR ∀ t > t0 liefert

0 = f (xR , zR , uR , p, t) , (5.45)
0 = g(xR , zR , uR , p, t) , (5.46)
yR = h(xR , zR , uR , p, t) . (5.47)

Mit (xT (t), z T (t))T = x̃(t) ergibt sich mit


f˜(x̃(t), u(t), p, t) = (f (x(t), z(t), u(t), p, t), g(x(t), z(t), u(t), p, t))T

0 = f˜(x̃R , uR , p, t) , (5.48)
yR = h̃(x̃R , uR , p, t) . (5.49)

Wir erhalten also dieselben Gleichungen wie für nichtlineare Systeme in Zustandsdar-
stellung. Falls f˜(x̃R , uR , p, t) lokal nach x̃(t) auflösbar ist, ergibt sich aus dem Satz
über implizite Funktionen:

x̃R = x̃R (uR , p, t) , (5.50)


yR = yR (uR , p, t) . (5.51)

5.4 Abschließende Bemerkungen

Es sei an dieser Stelle daran erinnert, dass alle diese mathematischen Modelle – das
ursprüngliche DA-System, das durch Umformung resultierende Index-1 System und
das überbestimmte System – ein und dasselbe dynamische System beschreiben. Das
bedeutet, alle drei Systeme zeigen in der Simulation das gleiche dynamische Verhalten,
sofern das Simulationsprogramm die Gleichungen (numerisch) lösen kann. In welcher
Form man ein mathematisches Modell aufschreibt, ist eine Entscheidung des Modellie-
rungsexperten, die prinzipiell nichts an den Simulationsergebnissen ändert, wohl aber
daran, wie leicht das System zu analysieren und numerisch zu lösen ist:

• Die Anwendung der Naturgesetze (Newton’sche Gesetze, Hauptsätze der Thermo-


dynamik, Kirchhoff’sche Gesetze . . . ) zur objekt-orientierten Modellierung von
technischen Systemen führt oft auf DA-Systeme mit hohem Index (Fritzson 2004,
Kap. 18).

• Die Darstellung als Index-1 System ist für die numerische Lösung mit Program-
men nach heutigem Stand der Technik am besten geeignet.

• Die Zustandsdarstellung ist für die Analyse des dynamischen Verhalten eines
Systems am besten geeignet.
5.4. ABSCHLIEßENDE BEMERKUNGEN 137

Probleme, die mit dem Index eines Modells zusammenhängen, können außer durch Um-
formung per Indexreduktion auch bereits durch kleine Änderungen in der Modellierung
gelöst werden, beispielsweise durch Wechsel des Koordinatensystems (z.B. Polar- statt
kartesische Koordinaten). Ein Beispiel aus dem Bereich der mechanische Systeme wird
in Kapitel 9 erläutert: Das Modell des Pendels, das in Beispiel 5.1 auf Basis der New-
ton’schen Gesetze in kartesischen Koordinaten modelliert wurde, hat einen Index von
3. Wird das Pendel, wie in Kapitel 4, in polaren Koordinaten modelliert, hat das re-
sultierende DA-System einen Index von 1.
Das Buch von Fritzson (2004) stellt in Kapitel 18 ausführlich die Schwierigkeiten bei
der Simulation von DA-Systemen mit Index größer 1 anhand von Beispielen dar.

Abel, D. (1990). Petri-Netze für Ingenieure. Modellbildung und Analyse diskret gesteu-
erter Systeme. Springer.

Bahill, A.T. und B. Gissing (1998). Re-evaluating systems engineering concepts using
systems thinking. IEEE Transactions on Systems, Man, and Cybernetics, Part C:
Applications and Reviews 28(4), S. 516 –527.

Bard, Y. (1974). Nonlinear Parameter Estimation. Academic Press New York.

Brenan, K.E., S.L. Campbell und L.R. Petzold (1996). Numerical Solution of Initial
Value Problems in Differential-Algebraic Equations. SIAM. Philadelphia, PA.

Bruns, M. (1991). Systemtechnik. Methoden zur interdisziplinären Systementwicklung.


Springer. Berlin.

Bunge, M. (1977). Treatise on Basic Philosophy. Vol. 3: Ontology I: The Furniture of


the World. D. Riedel. Dordrecht.

Bunge, M. (1979). Treatise on Basic Philosophy. Vol. 4: Ontology II: A World of Sys-
tems. D. Riedel. Dordrecht.

Cassandras, C.G. und S. Lafortune (1999). Introduction to Discrete Event Systems.


Kluwer.

Dahmen, W. und A. Reusken (2008). Numerik für Ingenieure und Naturwissenschaftler.


Springer.

David, R. und H. Alla (2005). Discrete, Continuous, and Hybrid Petri Nets. Springer.

DIN 60617-2 bis -11: Graphische Symbole für Schaltplän (1996). Beuth Verlag.
138 KAPITEL 5. DIFFERENTIAL-ALGEBRAISCHE SYSTEME

Diwekar, Urmila M. und Jayant R. Kalagnanam (1997). Efficient sampling technique


for optimization under uncertainty. AIChE Journal 43, S. 440–447.
Föllinger, O. (2008). Regelungstechnik. Hüthig Verlag, Verlagsgruppe Hüthig Jehle
Rehm GmbH, Heidelberg, München, Landsberg, Berlin.
Föllinger, O. und D. Franke (1982). Einführung in die Zustandsbeschreibung dynami-
scher Systeme. R. Oldenbourg. München.
Fritzson, Peter (2004). Principles of Object-Oriented Modeling and Simulation with
Modelica 2.1. IEEE Press. Wiley-Interscience. ISBN: 0-471-47163-1.
Gerdin, M. (2004). Computation of a canonical form for linear differential-algebraic
equations. Proceedings of Reglermöte (Swedish National Conference on Control),
Gothenburg, Sweden.
Gigch, J.P. van (1991). System Design Modeling and Metamodeling. Springer. New
York.
Gilles, E.D., P. Holl und W. Marquardt (1986). Dynamische Simulation komplexer
chemischer Prozesse. Chem. Ing. Tech. 58, S. 268–278.
Griepentrog, E. und R. März (1986). Differential-Algebraic equations and their nume-
rical treatment. Teubner-Texte Mathematik. Leipzig.
Hangos, K. M. und I. T. Cameron (2001). Process Modelling and Model Analysis.
Academic Press.
Hirsch, Morris W. (2004). Differential equations, dynamical systems and an introduc-
tion to chaos. Elsevier Academic Press.
J.C. Morud, S. Skogestad (1998). Analysis of instability in an industrial ammonia
reactor. AIChE Journal 44, S. 888–895.
Jerri, A.J. (1977). The Shannon sampling theorem — its various extensions and app-
lications: A tutorial review. Proc. IEEE 65, S. 1565–1596.
Jongen, H.Th. (2003). Vorlesungsskript zur Höheren Mathematik. Lehrstuhl C für Ma-
thematik, RWTH-Aachen.
Khalil, Hassan K. (2000). Nonlinear systems. Pearson Education.
Klir, G.J. (1985). Architecture of Systems Problem Solving. Plenum Press. New York.
Kramer, U. und M. Neculau (1998). Simulationstechnik. Fachbuchverlag Leipzig.
Lunze, J. (2006). Ereignisdiskrete Systeme: Modellierung und Analyse dynamischer Sys-
teme mit Automaten, Markovketten und Petrinetzen. Oldenbourg Wissenschafts-
verlag.
5.4. ABSCHLIEßENDE BEMERKUNGEN 139

Marquardt, W. (2005). Simulationstechnik IV: Modellgestützte Schätzmethoden. Vorle-


sungsmanuskript. AVT-Prozesstechnik, RWTH Aachen.

Marquardt, W. (2010). Modellbildung und Analyse verfahrenstechnischer Prozesse. Vor-


lesungsmanuskript. AVT-Prozesstechnik, RWTH Aachen.

Minsky, M. (1965). Matter, mind and models. In: Proc. IFIP Congress Information
Processing (W.A. Kalenich, Hrsg.). Vol. 1. New York City, Mai 1965. Spartan
Books. Washington. S. 45–49.

Patzak, G. (1982). Systemtechnik - Planung komplexer innovativer Systeme. Springer.


Berlin.

Schlegel, Martin, Wolfgang Marquardt, Rainald Ehrig und Ulrich Nowak (2004). Sen-
sitivity analysis of linearly-implicit differential-algebraic systems by one-step ex-
trapolation. Appl. Numer. Math. 48(1), S. 83–102.

Shannon, C.E. (1998). Communication in the presence of noise. Proc. IEEE (Nach-
druck) 86, S. 447–457.

Shannon, R.E. (1975). Systems Simulation: The Art and Science. Prentice-Hall, Engle-
wood Cliffs, NJ.

Simon, H.A. (1981). The Sciences of the Artificial. 2. Auflage. The MIT Press. Cam-
brige, MA.

Stephanopoulos, G., G. Hennig und H. Leone (1990). MODEL.LA. A modeling lan-


guage for processs engineering. Comput. Chem. Engng 14, S. 813–869.

Unbehauen, H. (2007). Regelungstechnik II: Zustandsregelungen, digitale und nichtli-


neare Regelsysteme. 9. Auflage. Friedrich Vieweg & Sohn Verlag.

Unbehauen, R. (1993). Systemtheorie. 6. Auflage. R. Oldenbourg. München.

van der Schaft, A. J. und J. M. Schumacher (1999). An Introduction to Hybrid Dyna-


mical Systems. Springer, Berlin.

VDI-Richtlinie 3633 Blatt 1 (2000). Simulation von Logistik-, Materialfluss- und Pro-
duktionssystemen, Grundlagen. VDI-Handbuch Materialfluss und Fördertechnik,
Band 8. Gründruck, Beuth, Berlin.

Zeigler, B.P. (1984). Multi-facetted Modeling and Discrete Event Simulation. Academic
Press. London.
140 KAPITEL 5. DIFFERENTIAL-ALGEBRAISCHE SYSTEME
Kapitel 6

Systeme mit diskretem Verhalten

Die Abläufe in der Realität sind im Detail immer zeitkontinuierlich, wenn man einmal
von sehr speziellen Gebieten wie der Quantenmechanik absieht. Selbst die Dynamik
des Umlegens eines Kippschalters, welche allgemein durch die alleinige Beschreibung
der Zustände „An“ oder „Aus“ vernachlässigt wird, ist bei genügend genauer Auflösung
ein kontinuierlicher Vorgang. (Man stelle sich die Bewegung des Schaltkontaktes in
einer Hochgeschwindigkeitsaufnahme vor.) Mit den in den letzten Kapiteln behandel-
ten kontinuierlichen Systemen kann daher prinzipiell jedes in der Realität auftretende
Systemverhalten abgebildet werden.
An dem Kippschalterbeispiel ist aber auch ein wesentlicher Schritt der Abstraktion
nachzuvollziehen: Das im Detail kontinuierliche Systemverhalten wird mit zwei diskre-
ten Zuständen beschrieben („An“ oder „Aus“). Durch die Wahl einer gröberen Gra-
nularität ist das Verhalten auf mikroskopischer Ebene in ein makroskopisch einfaches
System mit zwei Schalterzuständen umgewandelt worden. Ein weiteres Beispiel sind
digitale Signale, welche aus einer Folge von Nullen und Einsen bestehen und in einem
bestimmten Rhythmus verarbeitet werden – offensichtlich zu bestimmten diskreten
Zeiten. Die Werte der binären Signale sind ebenfalls (per Definition) eingeschränkt
(„0“ oder „1“). Tatsächlich vereinfacht eine solche Abstraktion die Beschreibung dyna-
mischer Systeme erheblich! Diese sogenannten „diskreten Systeme“ (eigentlich müsste
man „diskrete Systembeschreibungen“ sagen) werden daher häufig in der Modellierung,
Simulation und Anwendung benutzt, wenn nur diskrete Zustände von Interesse sind
und der Übergang dazwischen vernachlässigbar ist.
In diesem Kapitel soll daher eine neue Klasse von Systemen mit diskretem Verhalten
betrachtet werden. Es wird zuerst die Überführung von kontinuierlichen Systemen in
zeit- und wertdiskrete Systeme behandelt, deren Zustände sich nur an definierten Zeit-
punkten und/oder auf definierte Werte ändern. Danach folgen Systeme, deren diskrete
Zustände sich nur in Abhängigkeit von einzelnen Ereignissen ändern. Abschließend
werden diskret-kontinuierliche Systeme behandelt, welche ereignisdiskrete Änderungen
von Systemen mit kontinuierlicher Dynamik modellieren.

141
142 KAPITEL 6. SYSTEME MIT DISKRETEM VERHALTEN

ursprünglicher
Zeitverlauf

Messpunkte

Rekonstruktion

t [s]

Abbildung 6.1: Abtastung und Rekonstruktion eines sinusförmigen Zeitverlaufs mit


einer zu klein gewählten Abtastfrequenz fs < 2f . Der anhand der Messpunkte re-
konstruierte Zeitverlauf besitzt eine deutlich niedrigere Frequenz als der ursprüngliche
Zeitverlauf.

Name der Präsentation, 20.03.2008 0


6.1 Abtastung und Rekonstruktion
Ein klassisches Anwendungsgebiet der Zeitdiskretisierung ist die Signalverarbeitung.
Akustische, optische oder elektrische Signale werden zwischen analogen (d.h. zeitkonti-
nuierlichen) und digitalen Einheiten umgewandelt. Um den Zeitverlauf auszulesen, wird
zu bestimmten Zeiten gemessen oder - wie man in der Signalverarbeitung sagt - abge-
tastet. Ein zeitkontinuierlicher Zustand x(t) wird daher in einen zeitdiskreten Zustand
durch Abtastung des kontinuierlichen Zeitverlaufs zu den Zeitpunkten kT überführt.
Dieser Zusammenhang lässt sich als
x(tk ) = x(kT ) , k = 0, 1, . . . (6.1)
schreiben. Hier wird also der Wert von x(t) zum Zeitpunkt tk exakt auf xk abgebildet.
Offensichtlich wird an vielfachen, durch den Index k gekennzeichneten Zeitpunkten
abgetastet. Die Abtastung erfolgt (hier) mit konstanten Abtastintervallen T oder mit
der Abtastfrequenz fs = 1/T .
Eine wichtige Frage betrifft die Wahl der Abtastfrequenz fs , die erforderlich ist, um ei-
ne akzeptable Rekonstruktion des zeitkontinuierlichen Zustands zu ermöglichen. Wird
wie in Abbildung 6.1 eine zu kleine Abtastfrequenz gewählt, weicht die gemessene
Frequenz (oder sogar der qualitative Verlauf) des rekonstruierten kontinuierlichen Ver-
laufs von dem ursprünglichen Zeitverlauf ab. Bei zu klein gewählter Abtastfrequenz
6.2. ZEITDISKRETE SYSTEME 143

wird eine niedrigere Frequenz gemessen. Der dabei entstehende Fehler wird als „Alia-
sing“ bezeichnet. Um einen Informationsverlust zu vermeiden, muss ein kontinuierlicher
Zeitverlauf mit einer Frequenz abgetastet werden, die oberhalb einer Mindestfrequenz
liegt. C.E. Shannon (1998) hat gezeigt, dass die Abtastfrequenz mehr als doppelt so
groß sein muss, wie die höchste, im abgetasteten Zustandsverlauf enthaltene Frequenz
f also fs > 2f , um eine verlustfreie Rekonstruktion zu ermöglichen (siehe auch Jerri
(1977)).

6.2 Zeitdiskrete Systeme

Aus Sicht der Simulationstechnik stellt sich die Frage, ob und wie Systeme zeitdiskret
modelliert werden können. Ein offensichtlicher Weg besteht in der Überführung der Zu-
standsdarstellung (vgl. Kap. 2) in eine zugeordnete zeitdiskrete Form. Diese Überfüh-
rung wird zuerst für lineare Systeme und danach für nichtlineare Systeme gezeigt. Die
auf diese Weise entstehenden diskreten Zustandsdarstellungen können auch verwendet
werden, um ein dynamisches System direkt in zeitdiskreter Form zu modellieren.

6.2.1 Lineare zeitdiskrete Systeme

Die Lösung der linearen Zustandsdifferentialgleichung

ẋ(t) = Ax(t) + Bu(t) (6.2)

ist (vgl. (3.63)):


Z t
x(t) = e A(t−t0 )
x(t0 ) + eA(t−τ ) Bu(τ )dτ . (6.3)
t0

Um die zeitdiskrete Zustandsdarstellung abzuleiten, betrachten wir statt des unbe-


schränkten Intervalls [t0 , t] das Abtastintervall [tk , tk+1 ]. Zwar ist die Auswertung des
Integrals in Gleichung (6.3) prinzipiell möglich, wenn die Eingangsgröße u(t) bekannt
ist, jedoch ergibt sich eine deutliche Vereinfachung, wenn man einen konstanten Wert
des Eingangs u(t) in [tk , tk+1 ] annimmt. Dies ist für ausreichend kleine Abtastintervalle
auch in guter Genauigkeit erfüllt. Alternativ kann ein polynomialer Verlauf höherer
Ordnung (z.B. linear oder quadratisch) angenommen werden. Mit dem im Intervall
[tk , tk+1 ] konstanten u(τ ) = u(tk ) ergibt sich dann
Z tk+1 
A(tk+1 −tk )
x(tk+1 ) = e x(tk ) + eA(tk+1 −τ )
dτ Bu(tk ) (6.4)
tk
144 KAPITEL 6. SYSTEME MIT DISKRETEM VERHALTEN

Mit Gleichung (6.4) ist die diskrete Zustandsgleichung bereits hergeleitet, wenn man

x(tk ) = xk
x(tk+1 ) = xk+1
u(tk ) = uk
∆tk = tk+1 − tk

setzt und die Matrizen

Ad (∆tk ) : = eA(∆tk )
Z tk+1
Bd (∆tk ) : = eA(tk+1 −τ ) dτ B
tk

= (e A(∆tk )
− I)A−1 B

einführt. Dann ergibt sich

xk+1 = Ad (∆tk )xk + Bd (∆tk )uk . (6.5)

Durch die analytische Lösung der kontinuierlichen Zustandsgleichung und deren Aus-
wertung zu den diskreten Zeitpunkten tk ist also die zeitdiskrete Zustandsgleichung mit
den Systemmatrizen Ad und Bd entstanden. Diese Darstellung ist generell für beliebige
Intervalle [tk , tk+1 ] gültig. In der Regel wird mit ∆tk = T keine weitere Vereinfachung
vorgenommen. Dann sind die Matrizen Ad und Bd unabhängig von der Zeit.
Um das zeitdiskrete lineare System zu vervollständigen, muss noch die Ausgangsglei-
chung in zeitdiskreter Form hergeleitet werden. Da es sich dabei um eine algebraische
Gleichung handelt, kann die Gleichung einfach zu den diskreten Zeitpunkten tk ausge-
wertet werden. Die Ausgangs und Durchgangsmatrizen C und D bleiben dabei unver-
ändert; für die zeitdiskrete Ausgangsgröße gilt yk = y(tk ).
Damit besitzt das zeitdiskrete lineare System für konstante Abtastintervalle die Form

xk+1 = Ad xk + Bd uk x0 = x(0)
yk = Cxk + Duk .

Die Herleitung des zeitdiskreten Systems für lineare differential-algebraische Systeme


kann analog zu der für lineare Systeme in Zustandsdarstellung vorgenommen werden.
Die zeitdiskrete Zustandsdarstellung kann unter den genannten Annahmen sehr schnell
ausgewertet werden. Wenn die zeitdiskreten Systemmatrizen aus einer vorab ausgeführ-
ten Berechnung bekannt sind, kann die Folge der zeitdiskreten Zustände ausgehend von
der Anfangsbedingung durch eine einfache Rekursion ohne die Anwendung eines nu-
merischen Integrationsverfahrens ausgewertet werden. Solch eine schnelle Auswertung
ist z.B. für die Echtzeitsimulation von Bedeutung.
6.2. ZEITDISKRETE SYSTEME 145

6.2.2 Nichtlineare zeitdiskrete Systeme

Wie in Kapitel 4 schon diskutiert, sind reale Systeme häufig nichtlinear. Es wird daher
im Folgenden aufgezeigt, wie ein nichtlineares zeitdiskretes System aus dem zugeord-
neten zeitkontinuierlichen System hergeleitet werden kann. Die nichtlineare Zustands-
darstellung kann wie im vorigen Abschnitt an der Stelle tk+1 ausgewertet und formal
in den Grenzen tk und tk+1 integriert werden. Dann ergeben sich mit den zeitdiskreten
Zuständen xk , Eingängen uk und Ausgängen yk die Gleichungen
Z tk+1
xk+1 = xk + f (x(τ ), u(τ ), p, τ ) dτ (6.6)
tk
yk = g(xk , uk , p, t) . (6.7)

Dabei können wie im linearen Fall die algebraischen Ausgangsgleichungen an den Zeit-
punkten tk exakt ausgewertet werden. Das Integral in der nichtlinearen Zustandsglei-
chung kann allerdings nicht analytisch gelöst werden. Entweder muss für die Auswer-
tung der diskreten Zustandsgleichung das Integral (zeitaufwändig) numerisch ausge-
wertet werden (siehe z.B. Dahmen und Reusken (2008)) oder es muss eine Näherung
gefunden werden.
Eine solche Näherung ergibt sich aus der Taylor-Reihenentwicklung der Zustandsfunk-
tion x(t) an der Stelle tk :

dxk 1 d2 x k 2
xk+1 = xk + ∆tk + 2
∆tk + O(∆t3k )
dt
|{z} 2
| dt {z }
f (xk ,uk ,p,t) =0

Durch Vernachlässigung der Terme quadratischer und höherer Ordnung ergibt sich
nach Einsetzen der nichtlinearen Zustandsgleichung und Auswertung der Näherung an
der Stelle t = tk mit
∆tk = tk+1 − tk
die nichtlineare diskrete Zustandsdarstellung zu

xk+1 = xk + ∆tk f (xk , uk , p, t) x0 = x(0)


yk = g(xk , uk , p, t) .

Wie im linearen Fall kann mit der für kleine Abtastintervalle sehr guten Näherung
eine rekursive Auswertung der nichtlinearen Zustandsdarstellung erfolgen, wenn die
Abtastfolge ∆tk , k = 1, 2, . . . bekannt ist. Die sich ergebende Rekursion entspricht
exakt einer Integration der nichtlinearen Zustandsgleichung mit dem expliziten Euler-
Verfahren (Dahmen und Reusken 2008). Als weiterführende Literatur zu den zeitdis-
kreten Systemen ist das Buch von Unbehauen (2007) zu empfehlen.
146 KAPITEL 6. SYSTEME MIT DISKRETEM VERHALTEN

6.3 Wertdiskrete Systeme


Bisher wurde angenommen, dass der Zustand xk jeden beliebigen Wert annehmen kann.
Mit dem Beispiel des Kippschalters oder der Binärzahlen der digitalen Datenverarbei-
tung sind jedoch eingangs schon Beispiele genannt worden, bei denen die Systemvaria-
blen nur (zwei) diskrete Werte annehmen können. Weitere Beispiele sind Messgeräte,
die einen eingeschränkten Messbereich haben oder die Speicherung von analogen Daten
in digitalisierter Form. Aus praktischen Gründen wird bei der digitalen Erfassung und
Speicherung von Messdaten immer ein Kompromiss zwischen der Auflösung des zur
Verfügung stehenden Wertebereichs und der dadurch entstehenden Datenmenge ange-
strebt. Die Bedeutung einer Wertdiskretisierung für die Modellierung und Simulation
soll hier kurz diskutiert werden. In der zeitkontinuierlichen und zeitdiskreten Zustands-
darstellung kann der Zustandsvektor x(t) bzw. xk jeden beliebigen Wert annehmen.
Zur Überführung in eine wertdiskrete Darstellung ist eine Abbildung des kontinuier-
lichen Wertebereichs der Zustände auf einen diskreten Wertebereich notwendig. Diese
sogenannte Quantisierung bildet die unendliche Menge der reellen Werterealisierungen
auf eine endliche Menge ab. Dazu kann konkret eine spezielle (zeitkontinuierliche oder
zeitdiskrete) Ausgangsgleichung yi = gi (x(t), u(t), p, t) verwendet werden, bei der die
Abbildung d : R → Λ auf die wertkontinuierliche Ausgangsgröße yi angewandt wird,
um eine wertdiskrete Ausgangsgröße der Menge Λ = λ1 , λ2 , . . . , λn zu erzeugen. Die
Abbildung d kann beispielsweise formuliert werden, indem das Element aus Λ mit der
geringsten Abweichung vom Ausgangswert yi ermittelt wird.

d(yi ) = arg min |yi − λ|,


λ∈Λ

wobei wir hier nicht den Fall betrachten, bei dem die Eindeutigkeit verletzt ist. Die
Überführung von einer wertkontinuierlichen in eine wertdiskrete Darstellung ist glei-
chermaßen auf zeitkontinuierliche und auf zeitdiskrete Systeme anwendbar, da die
Quantisierung unabhängig von der Zeitbasis ist.
Mit dieser Abbildung der Zustände und Eingänge auf die Ausgänge der Quantisierung
geht immer ein Informationsverlust einher, welcher als Quantisierungsfehler bezeichnet
wird. Abbildung 6.2 fasst die Quantisierung und Zeitdiskretisierung zur Abstraktion
kontinuierlicher Systeme übersichtshaft zusammen.
Einschub: zeit- und wertdiskrete /-kontinuierliche System

6.4. EREIGNISDISKRETE SYSTEME 147

reelle Quantisierung diskrete


Signalwerte Signalwerte

kontinuierliche
Zeit

Abtastung

diskrete Zeit

Abbildung 6.2: Zeit- und Wertdiskretisierung von kontinuierlichen Systemen

6.4 Ereignisdiskrete Systeme

In den beiden vorherigen Abschnitten ist die Diskretisierung des Zustands sowohl im
Zeit- wie auch im Wertebereich behandelt worden. Im Gegensatz zu den zeitkonti-
Simulationstechnik V 19 SS 2009
nuierlichen Systemen ändern zeitdiskrete Systeme ihren Zustand nur zu bestimmten
Zeitpunkten. Dadurch besteht eine Synchronisation mit einem bestimmten Zeittakt.
Man stelle sich nun vor, dass eine diskrete Zustandsänderung unvorhergesehen eintritt,
so dass sie im Rahmen einer Modellierung keinem bekannten Zeitpunkt zugeordnet
werden kann. Dann charakterisiert nicht mehr ein Zeitpunkt, sondern ein bestimmtes
Ereignis die Zustandsänderung. In Abbildung 6.3 ist dies dargestellt: Statt des konti-
nuierlichen Verlaufs ergibt sich im ereignisdiskreten Fall eine Abfolge von Ereignissen.
Ein Beispiel für ein solch dynamisches Verhalten ist das Erreichen eines bestimmten Pe-
gels in einem Tank. Prinzipiell könnte das Auffüllen (z.B. durch verschiedene Zuflüsse)
und die Entleerung (z.B. durch Entnahme und Verdunsten) kontinuierlich modelliert
werden, so dass zu jeder Zeit der Wasserstand im Tank als kontinuierliche Größe be-
kannt wäre. In manchen Anwendungen mag es aber einfacher sein, einen diskreten
Wertebereich zu definieren (z.B. „voll“ und „leer“) und den Zustand über einen Pegel-
schalter zu detektieren. Dieser wird irgendwann schalten, wenn der Flüssigkeitsstand
die entsprechende Höhe erreicht hat. Es gibt also 6 Ereignisse: Abfluss auf, Abfluss zu,
Zufluss auf, Zufluss zu, Tank voll, Tank leer. Der zeitliche Zusammenhang wird dabei
außer Acht gelassen.
Es soll im Folgenden nun eine solche Klasse von Systemen betrachtet werden, die
nur durch das Eintreten eines Ereignisses ihren Zustand ändern können. Sie werden
ereignisdiskrete Systeme genannt.
148 KAPITEL 6. SYSTEME MIT DISKRETEM VERHALTEN

Zustand Zustand
x6
x5
x4
x3
x2
x1

e1 e2 e3 e4 e5 e6
Zeit Ereignisse

Abbildung 6.3: Unterschied zwischen kontinuierlichen (links) und ereignisdiskreten


(rechts) Systemen. Die ereignisdiskreten Systeme ändern nur zu bestimmten Ereig-
nissen (e1 , e2 , . . . , ei ) ihren Zustand.

Da das Eintreten eines Ereignisses nicht wie bei zeitdiskreten an einen Zeitpunkt und
damit an eine Ursache gekoppelt ist, spricht man auch von ereignisgesteuerten Syste-
men. Ihr Zustand ist wertdiskret realisiert. Da die Zeit in der Repräsentation dieser
Art von Systemen keine Bedeutung hat, lassen sich die Formalismen zur Beschreibung
zeitkontinuierlicher oder zeitdiskreter Systeme nicht verwenden. In diesem Abschnitt
wird erläutert, wie solche Systeme darzustellen sind.
Die möglichen wertdiskreten Zustände eines ereignisdiskreten Systems lassen sich in der
Menge S = {s0 , s1 , . . . , sI } zusammenfassen. Die Menge S wird als diskreter Zustands-
raum bezeichnet. Die Menge der möglichen Ereignisse ist Σ = {e1 , e2 , . . . , eJ }. Sie wird
Alphabet genannt. Die Menge der vorhanden Transitionen ist ∆. Die Elemente dieser
Menge haben die Form δijk = [si , ej , sk ], wobei sie angeben, dass ein Zustandsübergang
von si nach sk stattfindet, wenn das Ereignis ej eintritt.
Diese formale Darstellung beschreibt ereignisdiskrete Systeme mit drei Objekten: den
Zuständen, dem Alphabet und den Transitionen. Die Menge der diskreten Zustände
S entspricht dabei allen möglichen Realisierungen des kontinuierlichen Zustands x(t),
die Ereignisse des sogenannten Alphabets Σ den Eingangsgrößen u(t) und die Menge
der Transitionen ∆ den Gleichungen der Zustandsdarstellung. Das 3-Tupel (S, Σ, ∆)
bildet die formale Beschreibung eines ereignisdiskreten Systems und entspricht der
Zustandsdarstellung zeitkontinuierlicher oder zeitdiskreter dynamischer Systeme.
Ähnlich wie die Entwicklung des Zustands zeitkontinuierlicher oder zeitdiskreter Syste-
me mit der Zeit, stellt sich bei ereignisdiskreten Systemen eine Sequenz von Ereignissen
ein. Definiert man die einzelnen Ereignisse als Buchstaben aus einem Alphabet, also als
eine Menge möglicher Realisierungen der Ereignisse, so ergeben die Sequenzen dieser
Buchstaben Wörter, welche die Abfolge der diskreten Zustände kodieren. Nun kann ein
ereignisdiskretes System verschiedene Kombinationen dieser Buchstaben (also Ereignis-
6.4. EREIGNISDISKRETE SYSTEME 149

se) verarbeiten. Beispielsweise kann das oben beschriebene ereignisdiskrete Tanksystem


durch verschiedene Wörter charakterisiert werden. Beispiele sind:

• {Tank leer, Zufluss auf, Abfluss auf, Tank voll, Zufluss zu, Tank leer, Abfluss zu}

• {Abfluss auf, Abfluss zu}

Ein ereignisdiskretes System erlaubt viele mögliche Sequenzen von Ereignissen. Die
Sequenz {Tank voll, Zufluss auf } ist beispielsweise nicht erlaubt, da sie in einen nicht
definierten Zustand führen würde (Tank läuft über). Die Gesamtheit der Menge von
erlaubten Sequenzen ergibt eine Menge von Wörtern und bildet die Sprache L des
ereignisdiskreten Systems. Ermittelt man alle möglichen Sequenzen des Systems, so
erhält man die Wörter, die das System „spricht“:

L = {e1 , e1 e2 , e1 e2 e4 , e3 e4 e2 , . . .} . (6.8)

Diese Menge von Wörtern lässt sich prinzipiell zum Konstruieren, Kombinieren und
Analysieren von ereignisdiskreten Systemen verwenden. Kommunizierende Systeme
müssen z.B. die gleiche Sprache sprechen, also gleiche Sequenzen von Ereignissen ver-
arbeiten. Die Struktur und Dynamik des Systems wird also durch Ermittlung aller
Wörter repräsentiert.
Allerdings ist es wenig praktisch und manchmal sogar unmöglich alle Wörter oder
Sequenzen explizit aufzulisten. Es sind daher weitergehende Formalismen notwendig,
die die enthaltene Struktur und Dynamik der Systeme wiedergeben und zugänglich
machen. Eine häufig benutzte Methode zur Darstellung von ereignisdiskreten Syste-
men sind Graphen. Die Elemente eines Graphen sind in Abbildung 6.4 dargestellt. Ein
Graph G besteht aus einer Menge von Kanten und Knoten. Die Knoten werden als
Kreise abgebildet und kennzeichnen die diskreten Zustände oder Moden. Dazwischen-
liegende Kanten kennzeichnen durch ihre Verbindung der Knoten die Möglichkeiten
eines Zustandsübergangs. Im einfachsten Fall ist die Kante ungerichtet; die Zustands-
änderung kann in beiden Richtungen erfolgen. Meist ist jedoch die Kante gerichtet, was
durch einen Pfeil angezeigt wird. Dadurch wird die Kante als eine einfache Kausali-
tät formuliert, welche die Richtung eines Zustandsübergangs festlegt. In den folgenden
Abschnitten sollen zwei Formalismen vorgestellt werden, die mit Hilfe von Graphen
dargestellt werden können, Petri-Netze und endliche Automaten.

6.4.1 Petri-Netze

Ein einfaches Beispiel eines Petri-Netzes ist mit zwei Zuständen und der Möglichkeit
eines Zustandsübergangs in Abbildung 6.5 dargestellt. Es besteht aus drei Knoten
und zwei gerichteten Kanten. Die Knoten lassen sich in zwei Klassen einteilen. Stellen
(1. Knotentyp) werden für die Kodierung des diskreten Zustands verwendet, während
150 KAPITEL 6. SYSTEME MIT DISKRETEM VERHALTEN

Knoten

ungerichtete Kante

gerichtete Kante

Graph G=({1,2,3},{k1,k2,k3})
k
Hybrider Automat 1 1 2
k3 k2
3

Abbildung 6.4: Elemente eines Graphen: Knoten und Kanten

Kante Kante

Stelle P1 Stelle P2
Transition t1

Abbildung 6.5: Einfaches Petrinetz mit zwei Zuständen und einer Transition
Simulationstechnik SS 2009
Name der V21
Präsentation, 20.03.2008 0

Transitionen (2. Knotentyp) Zustandsübergänge ermöglichen. Stellen dürfen offensicht-


lich nicht mit Stellen und Transitionen nicht mit Transitionen verbunden werden. Die
Repräsentation des Systemzustands erfordert die Belegung der Stellen mit einem oder
mehreren Token. Die Verteilung der Token entspricht einem diskreten Systemzustand
und wird auch als Markierung bezeichnet.
Formal gibt es also eine Menge von Stellen P = {P1 , P2 , . . . , PI } und eine Menge von
Transitionen T = {t1 , t2 , . . . , tJ }. Die Menge der existierenden Kanten A besteht aus
einer Teilmenge der Verbindungen von Stellen zu Transitionen und von Transitionen
zu Stellen. Diese Menge wird durch

A ⊆ (P × T ) ∪ (T × P )

beschrieben, wobei die erste Teilmenge die Verknüpfung von Stellen und Transitionen
und die zweite die Verknüpfung von Transitionen mit Stellen beschreibt. Wir nehmen
an, dass das Petri-Netz keine Knotenpaare besitzt, die in beiden Richtungen miteinan-
der verbunden sind, d.h.

∀(Pi , tj ) ∈ (P × T ) : [(Pi , tj ) ∈ A ⇒ (tj , Pi ) ∈


/ A] .
6.4. EREIGNISDISKRETE SYSTEME 151

Die Kardinalität der Menge A ergibt sich aus dem konkreten Modell. Für das Beispiel
aus Abbildung 6.5 ergibt sich
P = {P1 , P2 }, T = {t1 }, A = {(P1 , t1 ), (t1 , P2 )} .
Eine Transition wird aktiviert, wenn alle Stellen „stromauf“ mit genügend Token belegt
sind und wenn die Kapazität aller nachfolgenden Stellen ausreicht. Eine aktive Tran-
sition kann schalten (auch feuern gennant). Durch Schalten einer solchen Transition
werden Token von allen Stellen stromauf entfernt und es werden Token an die Stellen
stromab zugeführt. Den Kanten ist ein Kantengewicht w zugeordnet. Bei Kanten, die
von einer Stelle Pi auf eine Transition tj zeigen, bedeutet das Kantengewicht einerseits
die zur Aktivierung der Transition tj nötigen Anzahl an Token in Stelle Pi , anderer-
seits die Anzahl von Token die beim Schalten der Transition tj der Stelle Pi entfernt
werden. Bei Kanten, die von einer Transition tj auf eine Stelle Pl zeigen, bedeutet das
Kantengewicht die Anzahl von Token die beim Schalten der Transition tj der Stelle Pl
zugeführt werden. Die Gewichte der von den stromauf liegenden Stellen Pi ∈ Ij zur
Transition tj führenden Kanten werden mit
w(Pi , tj ), i ∈ Ij ⊂ {1, ....I}
bezeichnet, während die Gewichte der Kanten, die stromab der Transition tj liegen,
mit
w(tj , Pl ), l ∈ Ij ⊂ {1, ....I}
bezeichnet werden.
Im einfachsten Fall sind alle Kantengewichte gerade eins. Dann werden sie in der graphi-
schen Darstellung (wie in Abbildung 6.5) nicht angegeben. Die Kapazität der Stellen,
also ihre Aufnahmefähigkeit von Token, ist im Allgemeinen größer als 1. Im einfachsten
Fall ist die Kapazität aller Stellen gleich unendlich. Dann werden sie in der graphischen
Darstellung (wie in Abbildung 6.5) nicht angegeben.
Um die Markierung und damit den aktuellen Systemzustand zu kennzeichnen, wird der
Markierungsvektor s = (s(P0 ), s(P1 ), . . . , s(PI )) eingeführt, dessen Elemente s(Pi ) die
Zahl der Token angeben, mit denen die Stelle Pi belegt ist.
Diese Beschreibung eines Petri-Netzes zeigt, dass 5 Objekte notwendig sind, um ein
markiertes Petri-Netz vollständig zu definieren. Sie werden zum 5-Tupel (P, T, A, w, s)
zusammengefasst.
Ein typisches Beispiel für ein Petri-Netz ist in Abbildung 6.6 gezeigt. Hier ist das Modell
eines Systems zum Nachrichtenaustausch dargestellt, in dem zwei Teilnehmer (Sender
und Empfänger) über einen Datenbus kommunizieren. Zuerst sendet der Sender eine
Nachricht, die dann auf dem Bus liegt. Der Empfänger muss empfangsbereit sein und es
muss eine Nachricht auf dem Bus vorhanden sein, damit der Empfänger eine Nachricht
empfangen und bearbeiten kann. Die zurückgesandte Antwort des Empfängers kann
ebenso durch den Sender nur empfangen werden, wenn dieser auf die Antwort wartet
und eine Nachricht auf dem Bus liegt.
152 KAPITEL 6. SYSTEME MIT DISKRETEM VERHALTEN

Transition Stellen Bedeutung


t1 Nachricht senden
t2 Nachricht empfangen
t3 Antwort senden
t4 Antwort empfangen
P1 Sender sendefähig
P2 Nachricht auf Bus
P3 Empfänger bearbeitet Nachricht
P4 Empfänger empfangsbereit
P5 Antwort auf Bus
P6 Sender wartet auf Antwort

P2
t1 t2

P1 P6 P3 P4

t4 t3
P5

Abbildung 6.6: Petri-Netz für den Nachrichtenaustausch zwischen einem Sender und
Empfänger über einen Nachrichtenbus. Transitionen und Stellen sind in der Tabelle
zusammengestellt. Die Token markieren den Ausgangszustand.
6.4. EREIGNISDISKRETE SYSTEME 153

Abbildung 6.7: Petri-Netz mit parallelen aktiven Transitionen t1 und t2 , die gleichzeitig
oder nacheinander schalten können.

6.4.1.1 Schalten von parallelen Transitionen

Im allgemeinen gibt es in Petri-Netzen gleichzeitig mehrere aktive Transitionen. Petri-


Netze sind nicht-deterministisch, d.h. die Reihenfolge der Schaltvorgänge steht nicht
fest. Zum Beispiel sind in Abb. 6.7 sowohl Transition t1 als auch Transition t2 aktiviert.
Es können eine nach der anderen schalten, also entweder t1 und dann t2 oder t2 und
dann t1 , oder sogar beide gleichzeitig. Da in diesem Fall die Transitionen unabhängig
voneinander sind, gibt es keinen Konflikt. Im Gegensatz dazu gibt es in Abb. 6.8 einen
Konflikt. Der Token in Stelle P1 reicht aus um beide Transitionen t1 und t2 zu aktivie-
ren, aber nicht beide können geschaltet werden. Mehrere einfache Fälle werden in der
zittierten Literatur beschrieben.
154 KAPITEL 6. SYSTEME MIT DISKRETEM VERHALTEN

Abbildung 6.8: Petri-Netz mit Konflikt. Beide Transitionen sind aktiv, nur eine kann
schalten.

6.4.1.2 Analyse

Durch die Flexibilität der Darstellungsmöglichkeiten in Petri-Netzen ergeben sich ei-


nige Eigenschaften, denen eine gesonderte Beachtung zukommen sollte. So kann z.B.
durch Vervielfachung der Token deren Anzahl unbegrenzt wachsen, was offensichtlich
unerwünscht ist. Ist das Petri-Netz so gestaltet, dass es nur eine maximale Anzahl
Token enthält, ist es beschränkt.
Weiterhin sollte jede Transition aktivierbar sein. Dies ist der Fall, wenn von jeder
möglichen Markierung s ein Pfad zu jeder möglichen Transitionen vorhanden ist. An-
sonsten entstehen nicht-lebendige Teile des Petri-Netzes (s. Abb. 6.10). Im gesteigerten
Fall können Verklemmungen auftreten. Dies ist ein Markierungszustand, in dem keine
Transition mehr aktiviert werden kann. Ein Beispiel dafür ist in einer Variante des
Nachrichtenaustausch-Systems in Abbildung 6.9 gezeigt: Wenn Transition t5 oder t6
geschaltet wird, befindet sich das System in einer Verklemmung.
So können wir charakteristische Eigenschaften von Petri-Netzen zusammenfassen:

• Ein Petri-Netz wird als beschränkt bezeichnet, wenn in keiner einzigen Stelle
jemals mehr als eine bestimmte maximale Anzahl von Token auftritt.

• Falls die Anzahl der Token auf den Stellen auf eins beschränkt ist, wird das
Petri-Netz darüber hinaus als sicher bezeichnet.
6.4. EREIGNISDISKRETE SYSTEME 155

P2

t1 t2
t5
P1 P6 P3 P4

t4 t3
P5
t6

Abbildung 6.9: Beispiel des Nachrichtenaustauschs in Ausgangsmarkierung mit mög-


licher Verklemmung. Nach einem Schalten der Transition t5 oder t6 ist das System
verklemmt. Es sollte verbessert werden.

P1 P3
t5
t1 t2 t3 t4

P2 P4

Abbildung 6.10: Durch Schalten t5


T der Transition t5 sind die Zustände P1 und P2 und
s (0 ) = [1000 ] s (3 ) = [0010 ]
T
Transitionen t1 und t2 im linken Teilnetz nicht mehr erreichbar. Dieses Petri-Netz ist
daher nicht-lebendig.
t1 t2 t3 t4

= [0100
s (1)heißt
• Ein Petri-Netz ]T
lebendig, wenn alle Zustände [0001
s (2 ) =des ]T
Petri-Netzes aus jedem
möglichen Zustand erreichbar sind. Transitionen, die nicht mehr aktiviert werden
können, werden als „nicht lebendig“ bezeichnet.

• Verklemmung ist ein Markierungszustand, in dem keine Transition aktiviert wer-


den kann, so dass kein Schalten mehr möglich ist. Wenn ein ereignisdiskretes
System möglicherweise in einer Verklemmung enden kann, sollte es verbessert
werden.

Wie schon deutlich geworden ist, lassen sich Petri-Netze gut visuell analysieren. Eine
zusätzliche Analysemethode ist der Erreichbarkeitsgraph. In diesem wird visualisiert,
ob ein Zustand (eine Markierung) s(k) vom Anfangszustand s(0) aus erreichbar ist. Die
Konstruktion des Erreichbarkeitsgraphen erfolgt, indem die Knoten des Graphen die
Zustände (Markierungen) des Petri-Netzes und die Kanten die Transitionen zwischen
156 KAPITEL 6. SYSTEME MIT DISKRETEM VERHALTEN

t4
s (0 ) = [100100 ]T s (3 ) = [000111 ]T
t1 t3
t2
s (1) = [010101 ]
T
s (2 ) = [001001 ]T

Abbildung 6.11: Erreichbarkeitsgraph für den Nachrichtenaustausch zum Petri-Netz in


Abbildung 6.6.

den Zuständen repräsentieren. Man zählt also die möglichen Zustände des Petri-Netzes
durch und zeichnet die möglichen Übergänge zwischen diesen als Pfeile ein. Der Er-
reichbarkeitsgraph des Nachrichtensystems aus Abbildung 6.6 ist in Abbildung 6.11
dargestellt.
Im Erreichbarkeitsgraphen können auch die oben definierten Eigenschaften eines Petri-
Netzes analysiert werden. So ist die Beschränktheit des Petri-Netzes eine Voraussetzung
für die Erstellung eines Erreichbarkeitsgraphen, da sich ansonsten eine unbeschränkte
Anzahl von Zuständen ergibt. Ein sicheres Petri-Netz erkennt man daran, dass die
Einträge von s(k) für einen initialen Markierungsvektor s(0) nur aus Nullen und Einsen
bestehen.
Die Lebendigkeit eines Petri-Netzes bedingt, dass von jedem Zustand alle anderen
Zustände erreichbar sind, was anhand der Transitionspfade geprüft werden kann.
Eine Verklemmung zeigt sich schließlich im Erreichbarkeitsgraphen durch eine erreich-
bare Markierung, von der keine Transition mehr ausgeht: eine Art Sackgasse (siehe
dazu den Erreichbarkeitsgraphen zum verklemmten Nachrichtensystem in Abb. 6.12).

6.4.1.3 Mathematische Darstellung

Nach der grafischen Diskussion der Elemente und Eigenschaften von Petri-Netzen wä-
re eine mathematische Darstellung wünschenswert, um z.B. komplexere Petri-Netze
rechnergestützt entwerfen und analysieren zu können. Um die grafische Struktur der
Petri-Netze und deren Dynamik mathematisch abzubilden, muss eine Abbildung ge-
funden werden, die den Zustand s(k + 1) nach der Transition tj durch eine Funktion
s(k + 1) = f (s(k), tj ) bestimmt.
Im ersten Schritt der Transition wird die entsprechende Anzahl Token von den stromauf
liegenden Stellen Pi abgezogen. Dazu wird eine Prä-Kantengewichtsmatrix W− mit den
zur Aktivierung der Transition notwendigen Kantengewichten w(Pi , tj ) aufgestellt. Im
zweiten Schritt wird analog für eine Post-Kantengewichtsmatrix W+ mit den Einträgen
von w(tj , Pi ) für die Anzahl Token nach der Transition auf der folgenden Stelle Pi
6.4. EREIGNISDISKRETE SYSTEME 157

t4
s(0) = [100100] s(3) = [000111]
T T

t1 t3
t2
s(1) = [010101] s(2) = [001001]
T T

t5

s(4) = [000101]
T t6

Abbildung 6.12: Erreichbarkeitsgraph für das Beispiel des Nachrichtenausstauschs mit


Verklemmung. Eine Transition aus dem Zustand s(4) z.B. auf den initialen Zustand
s(0) würde das System verbessern.

verfahren. Beide Matrizen sind eine I × J-Matrix entsprechend der I Stellen und der
J Transitionen. Falls alle Kantengewichte w = 1 sind, bestehen diese Matrizen nur aus
Nullen und Einsen.

Für das Beispiel des Nachrichtenaustauschs ergeben sich die Prä-Kantengewichtsmatrix


W− und die Post-Kantengewichtsmatrix W+ zu
   
1 0 0 0 0 0 0 1

 0 1 0 0 


 1 0 0 0 

0 0 1 0 0 1 0 0

(6.9)
  +
 
W =  , W =  .

 0 1 0 0 


 0 0 1 0 

 0 0 0 1   0 0 1 0 
0 0 0 1 1 0 0 0

Durch Subtraktion wird daraus die Inzidenzmatrix W des Nachrichtensystems gebildet:


 
−1 0 0 1

 1 −1 0 0 

0 1 −1 0

(6.10)
+
 
W=W −W = 

 0 −1 1 0 

 0 0 1 −1 
1 0 0 −1

Diese Matrix enthält nun alle Aktionen, die von den Transitionen im Petri-Netz aus-
geführt werden können. Beispielsweise ist der Markierungsvektor zu Beginn s(0) =
(1, 0, 0, 1, 0, 0)T . Schaltet nun die Transition t1 (entsprechend der ersten Spalte der Ma-
trix W), so wird von der Stelle P1 ein Token abgezogen und auf der Stelle P2 ein Token
158 KAPITEL 6. SYSTEME MIT DISKRETEM VERHALTEN

hinzugefügt. Damit überführt die Matrix W den Markierungsvektor s(0) in s(1).


     
1 −1 0 0 1   0
 0   1 −1 0 0  1  1 
  
  
 0   0 1 −1 0  · 0 = 0  (6.11)
   
s(1) = 
 1  +  0 −1 1
 
   0   0  

 1 

 0   0 0 1 −1  0  0 
0 1 0 0 −1 1
Mit dem zur Transition tj zugehörigen Ereignis u(k) ergibt sich folgende allgemeine
Darstellung:
(
1 für m = j
s(k + 1) = s(k) + W · u(k) mit um (k) =
0 sonst .
In diesem Abschnitt ist mit den Petri-Netzen ein Formalismus zur Beschreibung, Visua-
lisierung und Analyse von ereignisdiskreten Systemen vorgestellt worden. Verschiedene
Eigenschaften wurden am Petri-Netz und im zugehörigen Erreichbarkeitsgraphen ge-
zeigt. Die mathematische Darstellung ermöglicht die numerische Handhabung dieser
graphischen Methoden und ermöglicht den rechnergestützten Entwurf und die Analyse
ereignisdiskreter Systeme. Jedes Ereignis wurde bisher direkt einer Transition zuge-
ordnet. Dies muss jedoch nicht zwangsläufig so sein. Um diese Erweiterung der Be-
schreibung zu ermöglichen, werden im nächsten Abschnitt die endlichen Automaten
eingeführt.

6.4.2 Endliche Automaten


Nach dem anschaulichen Ansatz der Petri-Netze zur Darstellung ereignisdiskreter Sys-
teme soll in einem Rückschritt noch einmal auf die formale Definition dieser Systeme
eingegangen werden. Es wurde bereits diskutiert, dass das 3-Tupel (S, Σ, δ) prinzipiell
zur Beschreibung ereignisdiskreter Systeme ausreicht. In diesem Abschnitt soll, von
dieser Beschreibungsform ausgehend, ein erweiterter Formalismus vorgestellt werden.
Grundlage der Beschreibung des ereignisdiskreten Systems ist wieder ein Graph. Dessen
Knoten beschreiben aber in diesem Fall direkt die diskreten Zustände S = (s0 , ..., sI )
des Systems (s. Beispiel in Abb. 6.13). Die Übergänge zwischen diesen Zuständen wer-
den durch gerichtete Kanten beschrieben, die den Elementen der Menge der Tran-
sitionen ∆ entsprechen. Jeder Kante ist mindestens ein Symbol aus dem Alphabet
Σ = e1 , ...eJ zugeordnet, welches das Ereignis angibt, das zu diesem Übergang führt.
Dabei ist es möglich, dass einer Kante mehrere Symole zugeordnet werden, wenn ein
Übergang zwischen zwei Zuständen durch mehrere Ereignisse hervorgerufen werden
kann. Außerdem kann ein Ereignis mehr als eine Transition hervorrufen.
Es ist zu bemerken, dass die Zuordnung des Alphabets zu den Transitionen δ weitaus
flexibler gestaltet ist. Es ist z.B. nicht zu bestimmen, welches Ereignis zu dem Wechsel
6.4. EREIGNISDISKRETE SYSTEME 159

e1
e1
s0 s2 e3

e2 e1,e3
s1

Abbildung 6.13: Ein einfacher Automat als Zustandsgraph dargestellt.

von s1 zu s2 geführt hat, da die Kante zwischen den beiden Zuständen durch zwei
Elemente von ∆ beschrieben wird, die von unterschiedlichen Ereignissen hervorgerufen
werden. Ebenso folgt auf ein Ereignis nicht zwangsläufig eine Zustandsänderung, wie
die Transition zeigt, die von s0 nach s0 führt und ausgelöst wird durch das Ereignis e1 .
Der Anfangszustand des Systems wird mit s0 gekennzeichnet. Damit ist gezeigt, dass,
basierend auf der formalen Definition, direkt eine Darstellung erfolgen kann, welche
als endlicher Automat bezeichnet wird. Das Wort „endlich“ reflektiert dabei die Be-
schränktheit der Sprache, also die endliche Menge von möglichen Ereignissen und Zu-
ständen. Mit der zusätzlichen Markierung des Anfangszustands s0 wird der endliche
Automat auch als 4-Tupel (S, Σ, ∆, s0 ) definiert.
Ein illustrierendes Beispiel für einen endlichen Automaten soll in Form eines Getränke-
automaten beschrieben werden. Dieser soll ein Getränk für den Preis von 2 e ausgeben
und akzeptiert 1 und 2 e-Münzen. Außer der Geldrückgabe kann der Automat kein
Geld herausgeben oder wechseln. Die Zustände ergeben sich daher aus dem aktuel-
len Guthabenstatus S = { 0 e, 1 e, 2 e}. Mögliche Ereignisse sind das Einwerfen der
Münzen, die Getränkeentnahme und die Geldrückzahlung:

Σ = {1 Euro, 2 Euro, Getränk entnehmen, Geld zurück} .

Die Transitionen δi ∈ (S × Σ × S) sind:

δ1 = (0 e, 1 Euro, 1 e) δ4 = (1 e, Geld zurück, 0 e)


δ2 = (1 e, 1 Euro, 2 e) δ5 = (2 e, Geld zurück, 0 e)
δ3 = (0 e, 2 Euro, 2 e) δ6 = (2 e, Getränk entnehmen, 0 e) .

Die Analyse der möglichen Sequenzen des endlichen Automaten ergibt die Sprache des
ereignisdiskreten Systems:

L ={(1 Euro, 1 Euro, Getränk entnehmen), (1 Euro, 1 Euro, Geld zurück),


(2 Euro, Getränk entnehmen), (1 Euro, Geld zurück), (2 Euro, Geld zurück)} .
160 KAPITEL 6. SYSTEME MIT DISKRETEM VERHALTEN

Getränk entnehmen

2 Euro
0€ 2€
1
G Eu r o
el
d
ro Eu
zu 1

c k
1€

Geld zurück

Abbildung 6.14: Zustandsgraph eines Getränkeautomats, der 1 und 2 e-Stücke akzep-


tiert und Getränke zum Preis von 2 e ausgibt.

Eine wesentlich anschaulichere Darstellung erfolgt im Zustandsgraph in Abbildung


6.14.

Zusätzlich kann es von Bedeutung sein, Information über den Systemzustand zu er-
halten. Eine solche Funktionalität wird durch eine spezielle Form eines Automaten
ermöglicht, nämlich den Mealy-Automaten (benannt nach dem Begründer G. Mea-
ly). Tabelle 6.1 gibt eine Übersicht über die Definition. Durch die Ergänzung um die
Ausgangsfunktionaliät ist dieser Automat zum 6-Tupel erweitert. Er umfasst ein Aus-
gangsalphabet Γ mit dem Ausgang ω.

Aus systemtheoretischer Sicht wäre eine ereignisdiskrete Darstellung analog zur zeit-
kontinuierlichen Zustandsdarstellung der folgenden Form

s(k + 1) = ψ(s(k), e(k)), s(0) = s0 (6.12)


γ(k) = ω(s(k), e(k)) . (6.13)

wünschenswert. Dazu muss eine Funktion ψ gefunden werden, die zur Menge der Tran-
sitionen ∆ passt. Dies bedeutet, dass für alle Elemente δ = (si , ej , sl ) ∈ ∆ gilt, dass
ψ(si , ej ) = sl ist. Es sei dabei darauf hingewiesen, dass die Abbildung im Allgemeinen
nicht durch einen analytischen Ausdruck erfolgen kann. Weiterhin ist beim Mealy-
Automat die Ausgangsfunktion zusätzlich auch vom Ereignis abhängig, welches zu
der Zustandsänderung geführt hat: γ(k) = ω(s(k), e(k)). Es ergeben sich mit der er-
weiterbaren Definition der Automaten also vielfältige Möglichkeiten, ereignisdiskretes
Systemverhalten abzubilden.
6.4. EREIGNISDISKRETE SYSTEME 161

S endliche nichtleere Menge von Zuständen


Σ Eingabealphabet (nichtleere Menge von Symbolen e)
Γ Ausgabealphabet (nichtleere Menge von Symbolen ω)
s0 Anfangszustand
∆ Transitionen
ω Ausgabefunktion: S × Σ → Γ

Tabelle 6.1: Formale Definition des Mealy-Automaten

6.4.3 Überblick ereignisdiskreter Systeme

In diesem Kapitel ist gezeigt worden, wie Systeme modelliert werden, die zeitunabhän-
gig und rein von Ereignissen gesteuert ihren Zustand ändern. Anstatt des zeitlichen
Zusammenhangs des kontinuierlichen Zustands über die differentiellen Gleichungen,
ergeben sich bei den ereignisdiskreten Systemen Mengen der diskreten Zustände, Er-
eignisse und Transitionen. Die Struktur und Dynamik wird zwar schon in der aus allen
möglichen Ereignissen bestehenden Sprache ausgedrückt. Für die Analyse und Visua-
lisierung werden jedoch andere Formalismen benötigt.
Davon sind zwei vorgestellt worden: Petri-Netze und Automaten. Petri-Netze sind in-
tuitiv und eignen sich sowohl zur Modellierung als auch zur Visualisierung und Analyse
des diskreten Systemverhaltens. Mittels der Transitionen zwischen den Stellen ergeben
sich Zustandsänderungen durch Veränderung der Lage und Anzahl der Token. Insbeson-
dere die Änderung der Token im Petri-Netz ist ein mächtiges Mittel der Modellierung,
um komplexe Zusammenhänge von parallelen Prozessen kompakt darzustellen.
Spezielle Eigenschaften wie Beschränktheit, Sicherheit, Lebendigkeit und Verklemmung
ereignisdiskreter Systeme sind am Beispiel der Petri-Netze vorgestellt worden. Die De-
finition des Markierungsvektors führt auf den Erreichbarkeitsgraphen, der die Ana-
lyse hinsichtlich Lebendigkeit und Verklemmung vereinfacht. Weiterhin kann durch
den Markierungsvektor und durch Aufstellung der Inzidenzmatrix, bestehend aus allen
möglichen Zustandsänderungen, ein Petri-Netz auch vollständig numerisch abgebildet
werden.
Das Konzept der Automaten geht dagegen direkt von der formalen Definition der er-
eignisdiskreten Systeme als 3-Tupel aus Zustandsmenge S, Alphabet Σ und Menge der
Transitionen ∆ aus. In der Darstellung als Zustandsgraph werden die möglichen Sys-
temzustände als einzelne Knoten dargestellt und die Transitionen dazwischen in Form
von gerichteten Kanten abgebildet.
Die Eigenschaft der Beschränktheit kann beim endlichen Automaten nicht verletzt
werden, da die Zahl der Zustände (und damit die Zahl der Tokens im entsprechenden
Petri-Netz) beschränkt ist. Daraus folgt, dass jeder endliche Automat immer als Petri-
Netz dargestellt werden kann, während andersherum diese Aussage nur für beschränkte
Petri-Netze gilt.
162 KAPITEL 6. SYSTEME MIT DISKRETEM VERHALTEN

Hinsichtlich eines Vergleichs von Petri-Netzen und endlichen Automaten kann die Aus-
sage getroffen werden, dass das Petrinetz in der Lage ist, komplexere – insbesondere
parallele oder gleichartige – Prozesse kompakter und übersichtlicher abzubilden. Da-
zu muss allerdings mehr Modellierungsaufwand betrieben werden, da alle möglichen
Zustände des Systems durch die verschiedenen Lagen und Anzahlen der Tokens be-
rücksichtigt werden müssen. Dies ist bei einer großen Anzahl Stellen nur noch über
systematische Analyse möglich, um Verklemmungen oder nicht-lebendige Systeme zu
vermeiden.
Automaten als direkte Abbildung der Sprache ereignisdiskreter Systeme können im
Gegenzug aufgrund ihrer Strukturiertheit einfach skaliert oder kombiniert werden. Im
Falle keiner gemeinsamen Zustände ist der neue Zustandsraum S eine Kombination
der Einzelzustände S1 und S2 . Dadurch und durch die sehr stringente Definition geht
gerade in der Zustandgraphendarstellung schnell die Übersichtlichkeit verloren.
Es ist insofern zu bemerken, dass kein eindeutiges Urteil zur Bevorzugung von Automa-
ten oder Petri-Netzen gegeben werden kann. Vielmehr sollte je nach Anwendungsfall
entschieden werden und beide Methoden sollten eher als komplementär denn als kon-
kurrierend eingestuft werden.
Es soll weiterhin bei dieser Einführung zu den ereignisdiskreten Systemen und den
entsprechenden Formalismen angemerkt werden, dass es neben den klassischen Petri-
Netzen und den vorgestellten Automaten eine Vielzahl von Varianten gibt. So gibt es
beispielsweise farbige Petri-Netze, um mit dem Token innerhalb einer Stelle einen va-
riablen (Zustands-)Wert darzustellen. Weiterhin existieren je nach gewünschtem Grad
der Abstraktion Möglichkeiten, um getaktete oder sogar stochastische ereignisdiskrete
Systeme abzubilden. Diese Fülle darzustellen würde den hier gestellten einführenden
Anspruch übersteigen und wird daher den Büchern von Cassandras und Lafortune
(1999), Abel (1990), David und Alla (2005) und Lunze (2006) überlassen.

6.5 Diskret-kontinuierliche Systeme


Die ereignisdiskreten Systeme wurden im vorherigen Abschnitt eingeführt, da sich die
Modellierung mancher Systeme stark vereinfacht, wenn komplizierte oder unbekannte
zeitliche Zusammenhänge ausgeblendet werden können. Nun gibt es aber Beispiele, in
denen die Abstraktion die Modellierung von abschnittsweise zeitkontinuierlichen Vor-
gängen erfordert, die durch ereignisdiskrete Umschaltungen verknüpft sind. Dies könn-
te z.B. ein elektrischer Schaltkreis sein, der fast immer einen kontinuierlichen Verlauf
von Strom und Spannung aufweist, der aber zu diskreten Zeitpunkten durch schaltende
Bauelemente (z.B. Transistoren) beeinflusst wird. Auch ein Semibach-Reaktor, bei dem
während der Reaktionszeit der Zulauf eines Reaktanden über ein Magnetventil gesteu-
ert wird, das nur geschlossen oder offen sein kann, weist dieses Verhalten auf. In diesen
Beispielen interagiert die kontinuierliche Dynamik mit den diskreten Ereignissen. Sie
6.5. DISKRET-KONTINUIERLICHE SYSTEME 163

muss in einem dynamischen Modell korrekt abgebildet werden, wenn das Verhalten mit
einer Simulation korrekt wiedergegeben werden soll.
Wir betrachten nun ein einfaches Beispiel genauer. Ein leicht schief geworfener elas-
tischer Ball, der auf eine Oberfläche auftrifft, wird zurück beschleunigt, bis er durch
die entgegenwirkende Erdbeschleunigung wieder auf die Oberfläche zurückkehrt. Dieser
Vorgang wiederholt sich, bis die kinetische Energie dissipiert ist und der Ball zum Lie-
gen bzw. zum Stillstand kommt (Bild 6.15). Dieser Vorgang ist genau genommen wieder
ein vollständig kontinuierlicher Vorgang. Zur Simulation müssten dann die Verformung
des Balls und die dabei wirkenden Kräfte und die sich durch die Materialdämpfung
ergebende Dissipation genau modelliert werden. Dazu müssten partielle Differential-
gleichungen für die elastische Wand des Balls erstellt und gelöst werden – offensichtlich
ein erheblicher Aufwand für ein eigentlich einfaches Problem.
Stattdessen wäre eine makroskopische Modellierung mittels eines Rückschnellkoeffizi-
enten, der die Dämpfung des Balls summarisch berücksichtigt, wesentlich einfacher.
Es ergeben sich daraus zwei Abläufe auf unterschiedlichen Zeitskalen. Auf der lang-
samen Zeitskala läuft die kontinuierliche Bewegung des Balls ab, während auf der
schnellen Zeitskala das Auftreffen auf der Oberfläche, die Verformung und die sich
anschließende Abstoßung des Balls beobachtet werden. Tatsächlich kann der Stoß des
Balls mit der Oberfläche zu einem diskreten Ereignis abstrahiert werden. Es wäre al-
so ein Formalismus wünschenswert, der die Kombination der durch zeitkontinuierliche
differential-algebraische Modelle fassbaren kontinuierlichen Dynamik mit der Beschrei-
bung verknüpfender diskreter Ereignisse verbindet.
Die kontinuierlichen Systembeschreibungen der Kapitel 2 - 5 erlauben jedoch kein Än-
dern der Modellgleichungen, wie sie durch diskrete Ereignisse induziert werden. Die
ereignisdiskreten Systembeschreibungen dieses Kapitels sind ihrerseits auf die diskrete
Betrachtung beschränkt und blenden eine kontinuierliche Dynamik aus. Mit den be-
kannten Systembeschreibungen ist das Problem daher nicht zu lösen, so dass ein neuer
Beschreibungsformalismus benötigt wird.
Diese Überlegungen führen zu der Klasse der diskret-kontinuierlichen Systeme. Damit
werden Systeme beschrieben, deren kontinuierliches Verhalten sich bei Eintreten be-
stimmter Ereignisse sprunghaft verändert, ohne dass Zeit vergeht. In Anlehnung an die
endlichen Automaten aus dem vorhergehenden Abschnitt, wird hier das Konzept der
hybriden Automaten vorgestellt.
Für den diskreten Teil des Systems wird ein Eingabealphabet Σ, eine Menge S der dis-
kreten Systemzustände oder auch Moden und die Menge der Transitionen ∆ definiert.
Für die Auswertung der kontinuierlichen Dynamik wird darüber hinaus ein kontinuier-
licher Zustandsraum X mit den Variablen x(t) ∈ X ⊆ Rm und eine Menge kontinuierli-
cher Eingangsgrößen u(t) ∈ U ⊆ Rn benötigt. Die aktiven dynamischen Gleichungen in
jedem Mode werden mittels eines Indikators Act gekennzeichnet, so dass für jeden Mo-
de si ein individuelles DA-System existiert. Der Gültigkeitsbereich der kontinuierlichen
Variablen wird für jeden Mode mit der Invariantenabbildung Inv(si ) ⊆ X festgelegt.
164 KAPITEL 6. SYSTEME MIT DISKRETEM VERHALTEN

S Menge diskreter Zustände oder Moden


X kontinuierlicher Zustandsraum der Variablen x(t) ∈ X ⊆ Rm
Σ Eingabealphabet
U Menge der kontinuierlichen Eingangsgrößen u(t) ∈ U ⊆ Rn
∆ Transitionen (Menge der hybriden Kanten)
Inv Invariantenabbildung für einen Mode Inv(si ) ⊆ X
Act aktive dynamische Gleichungen eines Modes Fi

Tabelle 6.2: Formale Definition des hybriden Automaten

Der hybride Automat definiert sich daher als 7-Tupel (S, X, Σ, U, ∆, Inv, Act) mit den
in Tabelle 6.2 zusammengefassten Elementen. Die Unterschiede zwischen dem hybri-
den Automaten und dem endlichen Automaten eines ereignisdiskreten Systems können
anschaulich in der graphischen Darstellung eines Modes des hybriden Automats dis-
kutiert werden. In Abbildung 6.16 sind die Grundelemente des hybriden Automaten
in einem Graphen dargestellt. Wie bei endlichen Automaten gibt es auch beim hybri-
den Automaten Knoten, welche die Systemzustände si repräsentieren. In jedem Mode
sind festgelegte differential-algebraische Modelle 0 = F (ẋ(t), x(t), u(t), t) aktiv (sie-
he Kapitel 5). Hier wird die gemischte Darstellung der differential-algebraischen Glei-
chungen der bekannten Zustandsdarstellung verwendet. Die hier anscheinend fehlenden
Parameter p sind feste Systemgrößen und werden daher nicht explizit aufgelistet. Ne-
ben der Kennzeichnung des aktiven DA-Systems Fs,i (ẋ(t), x(t), u(t), t) = 0 wird auch
die Invariantenabbildung der kontinuierlichen Variablen angegeben, was z.B für nur
abschnittsweise definierte Funktionen (z.B. Wurzelfunktion) wichtig ist. Es gilt also
x(t) ∈ Inv(si ).
Die Transition δ erlaubt den Wechsel in einen anderen Mode, bewirkt den Austausch
des aktiven dynamischen Modells und weist den kontinuierlichen Variablen eine An-
fangsbedingung zu, die nach dem ausgeführten diskreten Ereignis von den kontinu-
ierlichen Zuständen angenommen wird. Sie ist in Bild 6.16 durch die hybride Kante
dargestellt. Ebenso wie die Kante des endlichen Automaten ist sie durch ein Symbol
des Eingabealphabets Σ gekennzeichnet. Im Unterschied zu der Zuordnung zu einem
diskreten Ereignis beim endlichen Automaten besitzt die Kante nun jedoch eine zu-
sätzliche Funktionalität in Form von Guard zur Überwachung von impliziten oder
expliziten Größen und Jump zur Zuweisung von Anfangsbedingungen für die kontinu-
ierlichen Variablen. Mittels dieser Unterscheidung definiert man, ob die Größe von einer
Zustandsfunktion des Modells abhängt (implizit) oder eine Funktion der Zeit oder der
Eingangsfunktion u(t) ist (explizit). Dementsprechend wird auch das Ereignis, welches
die Übergangsfunktion aktiviert, ein implizites oder explizites Ereignis genannt.
Guard überwacht die spezifizierte Größe (in Bild 6.16 die Temperatur T) und aktiviert
die Übergangsfunktion, wenn x(t) ∈ Guardsi ,si+1 . Bei der Schaltung in den nächsten
Mode wird dann durch Jump die kontinuierliche Variable initialisiert, z.B. wie hier mit
dem Wert vor dem Schalten der hybriden Kante x(t+ ) = x(t− ).
6.5. DISKRET-KONTINUIERLICHE SYSTEME
Springender Ball als hybrider
165
Automat

Zustände:
Höhe z, Geschwindigkeit
Parameter:
Radius r, Rückschnellkoe
Konstanten: Erbeschleun
Abbildung 6.15: Springender Ball
Dynamik und Anfangswerte
Guard
z& = v z , z ( 0 ) = z 0 > r
diskreter Zustand z≤r a
oder Mode
v& z = − g , v z ( 0 ) = v z , 0
Symbol Hybride Kante 1
aktives 1
Bei Berührung des Bodens gilt F1 ( x, x) = 0
dynamisches &
F1(x, x, u+,T ) = 0
v (t ) = − c ⋅ v (t − )
a
x(t ) ∈ {x | z ≥ r}
Modell x(tz) ∈{ x | T ≤ Tg } Guard z Jump
T ≥ Tg x(t ) = x(t − )
+

mit 0 < c < 1


Variablen im
kontinuierlichen
© Lehrstuhl fürInvariante Übernahme
fürRWTH Aachen
Prozesstechnik, 2007 von
Zustandsraum diesen Mode Variablenwerten
Abbildung 6.16: Ein Mode eines hybriden Automaten mit seinen Elementen im Zu-
standsgraphen. Es handelt sich dabei um eine Erweiterung des endlichen Automaten.

Ein abstraktes Beispiel eines komplexeren hybriden Automaten ist als Graph in Abbil-
dung 6.17 gezeigt. Deutlich ist die Ähnlichkeit zum endlichen Automaten zu erkennen.
Wiederum sind alle Zustände als Knoten zu erkennen und die Transitionen dazwi-
schen erfolgen durch gerichtete Kanten. Diese und die Zustände selber sind allerdings
um funktionale Elemente für die Definition unterschiedlicher dynamischer Gleichungen
und deren Variablen erweitert.
166 KAPITEL 6. SYSTEME MIT DISKRETEM VERHALTEN
Hybrider Automat
Guard
3
Jump g
e F3 (x, x , u)  0
4 Guard
x(t )  Inv(3) Jump
F4 (x, x , u)  0
x(t )  Inv(4) Guard
Jump Jump
f
a Guard c
b Guard Jump
Guard 2
Jump
1 F2 (x, x , u)  0
F1 (x, x , u)  0 x(t )  Inv(2)
x(t )  Inv(1) Guard d Jump
z.B. x(t )  0 z.B. x : 0
Simulationstechnik SS 2009
Name der V21
Präsentation, 20.03.2008 0

Abbildung 6.17: Zustandsgraph eines abstrakten hybriden Automaten

Mit diesem Formalismus des hybriden Automaten soll nun das eingangs gegebene Bei-
spiel des springenden Balls modelliert werden. Die Zustandsgrößen sind die Höhe z(t)
und die Geschwindigkeit vz (t). An Parametern gehen der Radius des Balls r, der Rück-
schnellkoeffizient c und die konstante Erdbeschleunigung g ein. Die Dynamik und An-
fangswerte der kontinuierlichen Flugbahn des Balls ergeben sich dann wie folgt:

ż(t) = vz (t)
z(0) = z0 > r
v˙z (t) = −g
vz (0) = vz,0

Die Modellierung des Systemverhaltens als diskret-kontinuierliches System ergibt die


kontinuierliche Flugbahn und die diskrete Berührung des Bodens. Für die Zustandsva-
riable vz (t) gilt:
vz (t+ ) = −cvz (t− ) mit 0 < c < 1 .
Der Vorzeichenwechsel und die Dämpfung durch den Rückschnellkoeffizienten c be-
schreiben die Beschleunigung in die entgegengesetzte Richtung. Es muss also kei-
ne dynamische Gleichung getauscht, sondern nur die kontinuierliche Variable vz (t)
reinitialisiert werden. Der Zustandsgraph des entsprechenden hybriden Automaten
für den springenden Ball ist in Abbildung 6.18 mit einem Mode und einer auf sich
selbst überführenden Kante dargestellt. Als Invariante wählt man zweckmäßigerweise
x(t) ∈ {x(t)|z(t) ≥ r} mit x(t) = [z(t), vz (t)]T , da der Ball keine Position unterhalb
der Oberfläche einnehmen kann. Hier ist der hybride Automat ein autonomes System,
welches nur durch implizite Ereignisse schaltet und keinen Eingang besitzt.
Modellierung des springenden Balls

6.5. DISKRET-KONTINUIERLICHE SYSTEME 167

Guard
zr

1
a
F1 (x, x )  0
x(t )  x | z  r
Jump
v z (t  )  c  v z (t  )

Abbildung 6.18: Springender Ball als hybrider Automat mit x(t) = [z(t), vz (t)]T

Die Implementierung der diskret-kontinuierlichen Systeme in Software zur numeri-


schen Lösung erfordert besondere Berücksichtung der Diskontinuität. Numerisch ge-
Simulationstechnik Ü9 SS 2009 1

sehen müssen zum Zeitpunkt des Umschaltens die Integration angehalten, die ent-
sprechenden Gleichungen aktiviert, die Variablen zugewiesen und die Integration neu
gestartet werden. Allgemein gibt es zwei Möglichkeiten, diesen Vorgang numerisch zu
implementieren.
Die erste Variante verfolgt den in der Praxis häufig verwendeten Ansatz der Glättung.
Dadurch wird versucht, die Unstetigkeit durch mathematische Funktionen abzubilden
und so das diskontinuierliche Systemverhalten in ein kontinuierliches umzuwandeln. Da-
zu bieten sich Funktionen wie arctan oder tanh an. Diese Lösung ist aber im Einzelfall
immer genau darauf zu prüfen, ob und wenn ja mit welchem Fehler sie das Verhal-
ten abbildet. Als weiterer Aspekt ist zu bemerken, dass durch diese Transformation
ein erheblicher Informationsverlust auftritt, so dass die Mühen der Modellierung als
diskret-kontinuierliches System zum Teil wieder zunichte gemacht werden. Ein geglät-
tetes System kann jedoch meist einfach mit bestehenden numerischen Lösern berechnet
werden.
Die genauere aber auch numerisch aufwendigere Variante ist die Überwachung des Um-
schaltzeitpunktes. Dazu werden sogenannte Schaltfunktionen ϕ(t) = (ẋ(t), x(t), u(t), t)
definiert, die auf einen Nulldurchgang überwacht werden. Tritt die Umschaltung ein,
muss die Integration angehalten, und mit neu initialisierten Variablen wieder gestartet
werden. Dies entspricht damit der Funktionalität des hybriden Automaten.
Allerdings erlaubt bisher kein bedeutendes Softwarepaket die direkte Codierung hybri-
der Automaten. So muss auch in Modelica mit Hilfskonstruktionen wie if-then-else
oder when-then gearbeitet werden. Eine elegante Methode ist dabei die Verwendung
des Befehls reinit, wodurch in einer when-Anweisung Systemvariablen neu initialisiert
werden können. Ein Code-Beispiel für die Implementierung des springenden Balls in
Modelica ist im Anhang A.4 aufgeführt.
In diesem Abschnitt ist die Klasse der diskret-kontinuierlichen Systeme behandelt
168 KAPITEL 6. SYSTEME MIT DISKRETEM VERHALTEN

worden. Mit dem hybriden Automaten gibt es einen Formalismus, um DA-Systeme


bei Eintreten eines diskreten Ereignisses in ihrer Gleichungsstruktur und/oder ih-
ren Systemvariablen zu ändern. Der Formalismus orientiert sich dabei an der Defi-
nition eines endlichen Automaten, welcher um kontinuierliche Objekte erweitert wor-
den ist. Damit ist ähnlich den diskreten Systemen ein strukturiertes Modellieren von
diskret-kontinuierlichen Systemen möglich, welche mittels Zustandsgraphen visuell dar-
gestellt werden können. Die direkte Codierung eines hybriden Systems ist bisher nicht
möglich und die Implementierung muss mittels Glättung oder der Überwachung mit
Hilfe von Schaltfunktionen durchgeführt werden. Während erstere aus dem diskret-
kontinuierlichen System ein nur im Einzelfall genaues System erzeugt, ist die Überwa-
chung schwieriger zu implementieren. Weiterführende Informationen zu diesem noch
recht jungen Thema findet man bei Hangos und Cameron (2001) und van der Schaft
und Schumacher (1999).

Abel, D. (1990). Petri-Netze für Ingenieure. Modellbildung und Analyse diskret gesteu-
erter Systeme. Springer.

Bahill, A.T. und B. Gissing (1998). Re-evaluating systems engineering concepts using
systems thinking. IEEE Transactions on Systems, Man, and Cybernetics, Part C:
Applications and Reviews 28(4), S. 516 –527.

Bard, Y. (1974). Nonlinear Parameter Estimation. Academic Press New York.

Brenan, K.E., S.L. Campbell und L.R. Petzold (1996). Numerical Solution of Initial
Value Problems in Differential-Algebraic Equations. SIAM. Philadelphia, PA.

Bruns, M. (1991). Systemtechnik. Methoden zur interdisziplinären Systementwicklung.


Springer. Berlin.

Bunge, M. (1977). Treatise on Basic Philosophy. Vol. 3: Ontology I: The Furniture of


the World. D. Riedel. Dordrecht.

Bunge, M. (1979). Treatise on Basic Philosophy. Vol. 4: Ontology II: A World of Sys-
tems. D. Riedel. Dordrecht.

Cassandras, C.G. und S. Lafortune (1999). Introduction to Discrete Event Systems.


Kluwer.

Dahmen, W. und A. Reusken (2008). Numerik für Ingenieure und Naturwissenschaftler.


Springer.

David, R. und H. Alla (2005). Discrete, Continuous, and Hybrid Petri Nets. Springer.
6.5. DISKRET-KONTINUIERLICHE SYSTEME 169

DIN 60617-2 bis -11: Graphische Symbole für Schaltplän (1996). Beuth Verlag.

Diwekar, Urmila M. und Jayant R. Kalagnanam (1997). Efficient sampling technique


for optimization under uncertainty. AIChE Journal 43, S. 440–447.

Föllinger, O. (2008). Regelungstechnik. Hüthig Verlag, Verlagsgruppe Hüthig Jehle


Rehm GmbH, Heidelberg, München, Landsberg, Berlin.

Föllinger, O. und D. Franke (1982). Einführung in die Zustandsbeschreibung dynami-


scher Systeme. R. Oldenbourg. München.

Fritzson, Peter (2004). Principles of Object-Oriented Modeling and Simulation with


Modelica 2.1. IEEE Press. Wiley-Interscience. ISBN: 0-471-47163-1.

Gerdin, M. (2004). Computation of a canonical form for linear differential-algebraic


equations. Proceedings of Reglermöte (Swedish National Conference on Control),
Gothenburg, Sweden.

Gigch, J.P. van (1991). System Design Modeling and Metamodeling. Springer. New
York.

Gilles, E.D., P. Holl und W. Marquardt (1986). Dynamische Simulation komplexer


chemischer Prozesse. Chem. Ing. Tech. 58, S. 268–278.

Griepentrog, E. und R. März (1986). Differential-Algebraic equations and their nume-


rical treatment. Teubner-Texte Mathematik. Leipzig.

Hangos, K. M. und I. T. Cameron (2001). Process Modelling and Model Analysis.


Academic Press.

Hirsch, Morris W. (2004). Differential equations, dynamical systems and an introduc-


tion to chaos. Elsevier Academic Press.

J.C. Morud, S. Skogestad (1998). Analysis of instability in an industrial ammonia


reactor. AIChE Journal 44, S. 888–895.

Jerri, A.J. (1977). The Shannon sampling theorem — its various extensions and app-
lications: A tutorial review. Proc. IEEE 65, S. 1565–1596.

Jongen, H.Th. (2003). Vorlesungsskript zur Höheren Mathematik. Lehrstuhl C für Ma-
thematik, RWTH-Aachen.

Khalil, Hassan K. (2000). Nonlinear systems. Pearson Education.

Klir, G.J. (1985). Architecture of Systems Problem Solving. Plenum Press. New York.

Kramer, U. und M. Neculau (1998). Simulationstechnik. Fachbuchverlag Leipzig.


170 KAPITEL 6. SYSTEME MIT DISKRETEM VERHALTEN

Lunze, J. (2006). Ereignisdiskrete Systeme: Modellierung und Analyse dynamischer Sys-


teme mit Automaten, Markovketten und Petrinetzen. Oldenbourg Wissenschafts-
verlag.

Marquardt, W. (2005). Simulationstechnik IV: Modellgestützte Schätzmethoden. Vorle-


sungsmanuskript. AVT-Prozesstechnik, RWTH Aachen.

Marquardt, W. (2010). Modellbildung und Analyse verfahrenstechnischer Prozesse. Vor-


lesungsmanuskript. AVT-Prozesstechnik, RWTH Aachen.

Minsky, M. (1965). Matter, mind and models. In: Proc. IFIP Congress Information
Processing (W.A. Kalenich, Hrsg.). Vol. 1. New York City, Mai 1965. Spartan
Books. Washington. S. 45–49.

Patzak, G. (1982). Systemtechnik - Planung komplexer innovativer Systeme. Springer.


Berlin.

Schlegel, Martin, Wolfgang Marquardt, Rainald Ehrig und Ulrich Nowak (2004). Sen-
sitivity analysis of linearly-implicit differential-algebraic systems by one-step ex-
trapolation. Appl. Numer. Math. 48(1), S. 83–102.

Shannon, C.E. (1998). Communication in the presence of noise. Proc. IEEE (Nach-
druck) 86, S. 447–457.

Shannon, R.E. (1975). Systems Simulation: The Art and Science. Prentice-Hall, Engle-
wood Cliffs, NJ.

Simon, H.A. (1981). The Sciences of the Artificial. 2. Auflage. The MIT Press. Cam-
brige, MA.

Stephanopoulos, G., G. Hennig und H. Leone (1990). MODEL.LA. A modeling lan-


guage for processs engineering. Comput. Chem. Engng 14, S. 813–869.

Unbehauen, H. (2007). Regelungstechnik II: Zustandsregelungen, digitale und nichtli-


neare Regelsysteme. 9. Auflage. Friedrich Vieweg & Sohn Verlag.

Unbehauen, R. (1993). Systemtheorie. 6. Auflage. R. Oldenbourg. München.

van der Schaft, A. J. und J. M. Schumacher (1999). An Introduction to Hybrid Dyna-


mical Systems. Springer, Berlin.

VDI-Richtlinie 3633 Blatt 1 (2000). Simulation von Logistik-, Materialfluss- und Pro-
duktionssystemen, Grundlagen. VDI-Handbuch Materialfluss und Fördertechnik,
Band 8. Gründruck, Beuth, Berlin.

Zeigler, B.P. (1984). Multi-facetted Modeling and Discrete Event Simulation. Academic
Press. London.
Kapitel 7

Modellierung strukturierter Systeme

Ziel der Modellierung im Maschinenbau ist die Beschreibung eines technischen Systems
mit Hilfe von mathematischen Konzepten. Die Verhaltensbeschreibung besteht grob
gesehen aus zwei Konzepten, den Systemgrößen und den mathematischen Gleichungen,
die diese Größen in Beziehung zueinander setzen. Ein „einfaches“ System kann durch
wenige Systemgrößen beschrieben werden, sowie durch einfache Gleichungen, die leicht
durch das Aufschreiben physikalisch-technischer Gesetzmäßigkeiten formuliert werden
können.

Reale technische Systeme sind jedoch meistens komplex: Ihr Verhalten wird nämlich
durch viele verschiedene Systemgrößen gekennzeichnet, deren Beziehung zueinander
vielfältig und komplex ist. Selbst wenn oft im Prinzip klar ist, welche physikalisch-
technischen Gesetze maßgeblich für das beobachtbare Verhalten des Systems verant-
wortlich sind, stellt das Ausformulieren dieser Gesetze in Form eines mathematischen
Modells oftmals eine erhebliche Herausforderung dar. Im Entwicklungsprozess für tech-
nische Systeme kommt der Modellierung eine wachsende Bedeutung zu, die sich auch
in Kosten und Zeitaufwand niederschlägt. Daher ist es wichtig, dass bei der Modellie-
rung systematisch vorgegangen wird, um die Modelle auf eine Weise zu formulieren,
die sowohl den Entwicklungsprozess als auch die spätere Wiederverwendung der Model-
le erleichtert. Für Unerfahrene mag manchmal der Eindruck entstehen, Modellierung
sei ein intransparenter Arbeitsprozess, der weitgehend auf Intuition und Erfahrung
beruht und nur für wenige „Genies“ erlernbar ist. Dieser Eindruck ist jedoch falsch,
denn es existieren systematische Vorgehensweisen, die generische und erlernbare Pro-
blemlösungsmethoden verwenden, und durch überprüfbare Zwischenschritte auch ohne
genialische Begabung zu einem definierten Ergebnis führt.

171
172 KAPITEL 7. MODELLIERUNG STRUKTURIERTER SYSTEME

7.1 Strukturierung als Teil des Modellierungsprozes-


ses

Abb. 7.1 stellt dar, was im Folgenden mit „Modellierungsprozess“ gemeint ist: Es be-
zeichnet diejenigen Schritte des Simulationsablaufs, die ausgehend vom grundlegenden
Verständnis eines Systems (Funktion, Kausalitäten, physikalische Prinzipien usw.) zu
einem mathematischen Modell des Systems führen. Das umfasst sowohl die gedankliche
Strukturierung des Systems in Teilsysteme mit definierter Funktion und Wechselwir-
kungen untereinander – was in der Vorlesung dem Schritt „Problem verstehen“ zuge-
ordnet ist – als auch die eigentliche „mathematische“ Modellierung, d.h. die Herleitung
eines mathematischen Modells des Systems.
Eine Vorbedingung für das Aufstellen der Modellgleichungen eines Systems ist die
Strukturierung des zu modellierenden Systems. Damit ist die gedankliche Zerlegung
des Systems auf dem Weg der Dekomposition in geeignete Teilsysteme mit definier-
ter Funktion gemeint (s. Abb. 7.2). Die Modellierung im mathematischen Sinn, also
die Ausformulierung von Modellgleichungen, beginnt mit der Formulierung von Mo-

„Der Modellierungsprozess“

• Abstraktion, Verständnis von Funktion, • Analyse des math. Modells


Kausalitäten, physikalischen Prinzipien usw. • Implementierung als
Simulationsmodell

Qualitatives mathematisches
Verständnis Modell des
des Systems Systems

System- mathematische
Strukturierung struktur Modellierung

• Zerlegung in Teilsysteme • Modellgleichungen für elementare


• Unterscheidung Speicher- und Teilsysteme (=Systembausteine) aufstellen
Verknüpfungssysteme • Aggregation zu Modellen von
• Zerlegung bis zu elementaren Teilsystemen Teilsystemen
• Benennung der Wechselwirkungen • Aggregation zum Modell des
• Einführung von Schnittgrößen Gesamtsystems

Abbildung 7.1: Der Modellierungsprozess, innerhalb des Simulationsablaufs, und seine


einzelnen Schritte.
7.1. STRUKTURIERUNG ALS TEIL DES MODELLIERUNGSPROZESSES 173

Eingang Ausgang
System

Dekomposition (Strukturierung)

Aggregation
Teilsystem

elementares
System

Abbildung 7.2: Aggregation und Dekomposition (Strukturierung) von Systemen (siehe


auch Kap. 1.6.6)

dellgleichungen für elementare Teilsysteme. Diese werden anschließend zu Modellen


von Teilsystemen zusammengefügt (aggregiert), die dann wiederum zum Modell des
Gesamtsystems zusammengefügt werden.
Was ist nun im Einzelnen bei dem Arbeitsschritt der „Strukturierung“ zu tun? Zu-
nächst kann man davon ausgehen, dass reale technische Systeme immer auf irgendeine
Weise strukturiert sind. Damit ist gemeint, dass man bei genauer Betrachtung einzel-
ne Teile des Systems ausmachen kann, die bestimmte Funktionen haben. Aufgabe des
Modellierers ist es, das zu modellierende System gedanklich in Teilsysteme zu zerlegen,
deren Funktionsweise sich jeweils für sich betrachtet – also getrennt von den übrigen
Teilsystemen – beschreiben lässt.
Für jedes einzelne Teilsystem legt der Modellierer fest, mit welchen anderen Teilsys-
temen es wie interagiert. Dies tut er, indem er die Art der physikalischen Wechselwir-
kungen benennt: Starre oder bewegliche Verbindung, Austausch von Stoff oder Wärme,
Stromfluss, Kopplung durch elektromagnetische Induktion oder Ähnliches.
Die Teilsysteme werden so lange weiter zerlegt, bis sie vollständig als Aggregation von
elementaren Teilsystemen mit definierten Wechselwirkungen beschrieben sind. Elemen-
tare Teilsysteme sind dabei solche Teilsysteme, für die eine weitere Zerlegung nicht
zweckmäßig wäre, und deren Verhalten in Form von Modellgleichungen ausformuliert
wird. Am Ende des Arbeitsschritts „Strukturierung“ steht eine Beschreibung der Sys-
temstruktur, aus der Aufbau und Wirkweise des gesamten Systems und aller seiner
Teile klar hervorgehen.
Der Arbeitsschritt der Strukturierung des zu modellierenden Systems gliedert sich also
in die folgenden Teilschritte:

1. Zerlegung des Systems in Teilsysteme,


174 KAPITEL 7. MODELLIERUNG STRUKTURIERTER SYSTEME

2. Benennung der Funktion der Teilsysteme (dazu mehr in Kap. 7.2),

3. Zerlegung der Teilsysteme in elementare Teilsysteme und Benennung der


physikalisch-technischen Gesetzmäßigkeiten, die die elementaren Teilsysteme cha-
rakterisieren,

4. Benennung der Wechselwirkungen zwischen den verschiedenen Teilsystemen,

5. Festlegung, durch welche physikalischen Größen die Wechselwirkungen im einzel-


nen beschrieben werden sollen (die sog. Schnittgrößen, siehe Kap. 7.3).

Anschließend folgt der Arbeitsschritt der mathematischen Modellierung. Dieser gliedert


sich in die folgenden Teilschritte:

1. Ausformulierung der mathematischen Modelle, welche die physikalisch-


technischen Gesetzmäßigkeiten der elementaren Teilsysteme charakterisieren;

2. Zusammenführen (Aggregation) der Modelle der elementaren Teilsysteme zu den


Modellen der Teilsysteme;

3. Zusammenführen der Modelle der Teilsysteme zum Gesamtmodell.

Die Festlegung, was genau unter elementaren Teilsystemen zu verstehen ist, kann durch-
aus von der Problemstellung und dem Modellierungszweck abhängen, wie im nachfol-
genden Beispiel erläutert wird:
Beispiel 7.1 (Kondensator als elementares Teilsystem). Als Beispiel für ein elemen-
tares Teilsystem wollen wir an dieser Stelle einen Kondensator als elektrisches Bau-
element in einem Schaltkreis betrachten. Selbstverständlich könnte ein Kondensator
als aggregiertes Teilsystem betrachtet werden, welches aus zwei Elektrodenplatten und
einem dazwischen liegenden Dielektrikum aufgebaut ist. Allerdings ist dies für eine
modellmäßige Beschreibung des integralen dynamischen Verhaltens eines Kondensa-
tors (d.h. der Beschreibung von Stromfluss und Spannung zwischen den Klemmen des
Bauteils) nicht notwendig und würde somit lediglich den Aufwand der Modellierung
erhöhen.
Die Festlegung der elementaren Teilsysteme ist aber durchaus von der Problemstellung
und dem Modellierungszweck abhängig. Stellen Sie sich vor Sie möchten ein Modell ei-
nes Kondensators erstellen, um in einem Entwicklungsprozess für einen neuen Konden-
satortyp die optimalen geometrischen Abmaße für die Elektrodenplatten zu ermitteln.
Hier kann die Betrachtung eines Kondensators als aggregiertes Teilsystem durchaus
zweckmäßig sein.
Beispiel 7.2 (Strukturierung einer Brunnenkaskade). Abb. 7.3 zeigt als Beispiel die
Zerlegung der mehrstufigen Brunnenkaskade aus Kap. 2.2.1 in elementare Teilsys-
teme. Als elementare Teilsysteme bieten sich hier diejenigen abgegrenzten Teile des
7.1. STRUKTURIERUNG ALS TEIL DES MODELLIERUNGSPROZESSES 175

Teilsystem „Brunnen 1“

Teilsystem „Rohr“

m zu m ab

Zulauf qein,1
Br.-Kaskade

h1 s1 qaus,1 Teilsystem „Brunnen 3“


= qein,2
Brunnen 1

s2 qaus,2
h2
= qein,3
Brunnen 2

h3 s3
qaus,3 Ablauf
Brunnen 3 Br.-Kaskade
System „Brunnenkaskade“

Wasserstrom

Brunnen 1 Rohr 1 Brunnen 2 Rohr 2 Brunnen 3

Abbildung 7.3: Beispiel für die Zerlegung eines Systems in Teilsysteme, die durch den
Zu- und Abfluss von Wasser untereinander in Wechselwirkung stehen.

Brunnenkaskade-Systems an, die unabhängig voneinander beschrieben werden können:


Nämlich die einzelnen Brunnen und die Verbindungsrohre. Diese Teilsysteme können
durch Zustandsgrößen und Parameter charakterisiert werden, und deren Verhalten kann
durch Bilanzgleichungen und konstitutive Gleichungen in ein mathematisches Modell
ausformuliert werden. Die Wechselwirkung der Teilsysteme besteht darin, dass zwi-
schen den Teilsystemen Wasser fließt. Es ist sinnvoll, als Schnittgrößen aller Teilsys-
teme jeweils den zu- und einen abfließenden Wasserstrom zu wählen. Darüber hinaus
werden (soweit wir das hier schon beurteilen können) hier keine weiteren Größen zur
Beschreibung der Wechselwirkungen benötigt.

In den folgenden Kapiteln werden Konzepte vorgestellt, die bei der Strukturierung
hilfreich sind. Diese Konzepte erleichtern bei konsequenter Anwendung insbesondere
die systematische Ableitung von Modellgleichungen für Teilsysteme und deren Ver-
kopplung zu größeren Modellen. Dabei wird vorausgesetzt, dass die Funktionsweise des
zu modellierenden Systems bereits bekannt ist. Ebenso sollte bereits klar sein, was
für physikalische Modellgleichungen zur Beschreibung dieser Funktion bzw. Funktio-
176 KAPITEL 7. MODELLIERUNG STRUKTURIERTER SYSTEME

nen grundsätzlich herangezogen werden sollen (ohne dass diese bereits im Einzelnen
ausformuliert wären).

7.2 Speichersysteme und Verknüpfungssysteme


Bei der Strukturierung technischer Systeme lässt sich feststellen, dass die eingeführ-
ten Teilsysteme trotz unterschiedlicher Funktionen gewisse Gemeinsamkeiten aufwei-
sen, die für eine grobe Klassifizierung
Unterscheidung herangezogen werden können. Wir unterscheiden
von Teilsystemen
zwei konzeptionell unterschiedliche Modellbausteintypen, die Speichersysteme und die
Wir können (s.
Verknüpfungssysteme Teilsysteme je nach ihrer Funktion im Gesamtsystem
Abb. 7.4).
unterscheiden:

Teilsystem

Verknüpfungs-
Speichersystem
system

Speichersysteme ... Verknüpfungssysteme …


ƒ sind Speicher von Materie, ƒ beschreiben die Übertragung
Energie, Impuls oder anderen von (extensiven) Flussgrößen
extensiven Größen. zwischen Speichersystemen.
ƒ werden durch ƒ können selber keine extensiven
„Bilanzgleichungen“ Größen speichern.
beschrieben.
Simulationstechnik V7 SS 2011
Abbildung 7.4: Klassifizierung von Teilsystemen eines strukturierten Systems
6

Speichersysteme sind Speicher für Materie, Energie, Impuls oder andere extensive Grö-
ßen. Sie sind durch Zustandsgrößen gekennzeichnet, welche das Verhalten der Speicher
wiedergeben, und Bilanzgleichungen, die die Zu- und Abnahme der Speicher beschrei-
ben. Verknüpfungssysteme hingegen sind speicherlos, d.h. sie beschreiben lediglich die
Übertragung von extensiven Flussgrößen zwischen Speichersystemen, können aber sel-
ber keine Materie, Energie, Impuls usw. speichern. Sie weisen keine Zustandsgrößen
auf, haben aber Modellgleichungen, die den Zu- und Abfluss von extensiven Größen
beschreiben.
Aus mathematischer Sicht sind Speichersysteme solche Systeme, deren Modellgleichun-
gen Differentialgleichungen enthalten (die Zustandsgleichungen eines Zustandsraum-
systems), während Verknüpfungssysteme keine Differentialgleichungen enthalten, da
sie keine Speicher haben.

Beispiel 7.3 (Speicher- und Verknüpfungssysteme der Brunnenkaskade). Das Modell


der Brunnenkaskade soll gemäß der Problemstellung aus Kap. 2.2.1 dazu dienen, die
Füllstände der einzelnen Becken als zeitlich veränderliche Größen zu berechnen. Wir
7.3. SCHNITTGRÖßEN UND SCHNITTSTELLEN 177

wissen bereits, dass die Füllstände nur vom Beckeninhalt abhängen, dessen Änderung
wiederum durch Zu- und Abfluss von Wasser bestimmt wird. Aus diesem Sachverhalt
schließen wir, dass es in allen Teilsysteme der Brunnenkaskade nur eine Art von ex-
tensive Größe, die zu- und abfließen oder gespeichert werden kann, geben soll, nämlich
Masse von Wasser.
Im vorigen Beispiel wurden Brunnenbecken und Rohrleitungen als elementare Teilsys-
teme des Brunnenkaskade-Systems identifiziert. Wir wissen, dass die Becken Wasser
aufnehmen und auch speichern können. Die Becken sind also Speichersysteme. Über die
Funktionsweise der Rohre hingegen haben wir noch keine Festlegung getroffen. Sind sie
Speicher- oder Verknüpfungssysteme? Dazu ist mehr Kenntnis über die Größe der Rohre
erforderlich. Sind sie im Verhältnis zu den Becken sehr klein, dann kann ihre Speicher-
fähigkeit für Wasser vernachlässigt werden, und sie sind als Verknüpfungssysteme ohne
eigenen Speicher zu beschreiben. Sind sie hingegen so groß, dass ihre Speicherfähigkeit
im Vergleich zu den Brunnenbecken nicht vernachlässigt werden kann, müssen sie als
Speichersysteme beschrieben werden.
Im Folgenden gehen wir davon aus, dass die Rohre keine (bzw. vernachlässigbar klei-
ne) Wassermengen speichern können. Sie sind Verknüpfungssysteme. Ihr Verhalten ist
dadurch definiert, dass in ein Rohr zu jedem Zeitpunkt genau so viel Wasser ein- wie
ausströmt.

7.3 Schnittgrößen und Schnittstellen

Modelle von Teilsystemen sollten möglichst kontextfrei verwendet und zu aggregierten


Systemen kombiniert werden können. Eine Voraussetzung dafür ist, dass die Modellglei-
chungen so formuliert sind, dass auch verschiedene Arten von Verbindungen definiert
werden können.
Alle Größen eines Teilsystems, über die Wechselwirkungen zwischen einem Teilsys-
tem und der Umgebung möglich sind, werden allgemein als Schnittgrößen bezeichnet.
Schnittgrößen, denen eine Wirkrichtung (von der Umgebung auf das Teilsystem, oder
vom Teilsystem auf die Umgebung) zugeordnet werden kann, sind Eingangs- oder Aus-
gangsgrößen. Ob eine bestimmte Schnittgröße Eingang oder Ausgang des Teilsystems
ist, ergibt sich oftmals erst aus der Verkopplung mit anderen Teilsystemen und der
Festlegung von Eingangs- und Ausgangsgrößen des Gesamtsystems.1
1
Das ist typisch für die Modellierung mit physikalischen Modellen, und die gleichungsorienterten
Modellierungssprachen (Modelica, gPROMS, Aspen Custom Modeler, SPEEDUP, Engineering Equa-
tion Solver u.v.m.) die für die Arbeit mit physikalischen Modellen entwickelt wurden. Es gibt auch
andere Arten der Modellierung (z.B. Block-orientierte Modellierung oder signalbasierte Modellierung)
bei der in jedem Teilmodell zwingend festgelegt werden muss, welche Schnittgrößen Eingänge und Aus-
gänge sind. Dies ist bei MATLAB Simulink und anderen, primär für die Regelungstechnik entwickelten
Modellierungssprachen der Fall.
178 KAPITEL 7. MODELLIERUNG STRUKTURIERTER SYSTEME

Gruppen von Schnittgrößen, die gemeinsam eine bestimmte Möglichkeit der Wechsel-
wirkung des Systems mit der Umgebung beschreiben, werden als Schnittstellen be-
zeichnet. Ein Teilsystem kann mehrere Schnittstellen haben. Schnittstellen sind bei
komplexen Modellen hilfreich, bei denen ein System mehrere Wechselwirkungen mit
der Umgebung eingehen kann, und jede der Wechselwirkungen durch mehr als eine
Variable beschrieben werden kann.
Beispiel 7.4 (Mathematische Modellierung und Aggregation des Systems „Brunnen-
kaskade“). Wir greifen ein weiteres Mal das Beispiel der Brunnenkaskade auf. In den
vorigen Beispielen wurde das System in Speicher- und Verknüpfungssysteme zerlegt,
und die Zu- und Ablaufvolumenströme von Wasser als Schnittgrößen definiert.
Im Folgenden sollen jetzt die Modelle der elementaren Teilsysteme hergeleitet werden.
Für jedes Teilsystem sollen Schnittgrößen (Zu- und Ablaufvolumenströme) definiert
und in die Gleichungen eingebaut werden. Anschließend sollen die Teilmodelle zum
Gesamtmodell der Brunnenkaskade aggregiert werden.
Nach Bsp. 2.2 sind die Modellgleichungen für ein einzelnes Brunnenbecken
dh 1
ẋ(t) = = (qein (t) + qaus (t)) , x(t0 ) = h(t0 ) = h0 , (7.1a)
dtt A
(7.1b)
p
qaus (t) = −s 2gh(t)

mit x(t) = [h(t)] als Zustandsgrößen, z(t) = ∅ als algebraische Variablen und p =
[A, s]T als Parameter des Teilsystems. Darüber hinaus führen wir hier den Vektor der
Schnittgrößen als s(t) = [qein,B (t), qaus,B (t)] ein.
Achtung: Um die Schnittgrößen in allen Teilsystemen einheitlich zu definieren, sind
sie hier (anders als in Kap. 3) formal alle positiv, d.h. als ins System hinein fließend
angenommen! Sowohl qein,B als auch qaus,B gehen positiv in Gl. (7.1a) ein. Wir wissen
aber, dass der Ablaufvolumenstrom aus dem System hinaus tritt. Daher ist qaus,B in
Gl. (7.1a) als kleiner Null definiert. Warum wir dies tun, wird später klar.
Eine Rohrleitung ist ein Verknüpfungssystem, in das zu jedem Zeitpunkt genau so viel
Wasser ein- wie austritt. Die Modellgleichung lautet

0 = qaus,R (t) + qein,R (t) , (7.2a)

mit x = ∅ , z = ∅ , s(t) = [qein,R (t), qaus,R (t)] und p = ∅. Auch hier sind qein,R (t) und
qaus,R (t) formal als positiv definiert, obwohl wir wissen (und aus Gl. (7.2a) schließen
können), dass eine der beiden größer und eine kleiner Null sein muss.
Damit ist das Aufstellen der mathematischen Modelle für die elementaren Teilsyste-
me abgeschlossen. Es ist hier wichtig festzuhalten, dass die einzelnen Modelle nicht
vollständig bestimmt sind. Das mathematische Modell eines Verbindungsrohres besteht
beispielsweise aus zwei Variablen und nur einer Modellgleichung. Das Modell des Brun-
nenbeckens besteht aus drei Variablen und zwei Gleichungen. Beide Modelle sind für
7.3. SCHNITTGRÖßEN UND SCHNITTSTELLEN 179

s1 = qein,R Rohrleitung s2 = qaus,R s1 = qein,B Brunnenbecken s2 = qaus,B


x=ø x = [h]
p=ø p = [A,s]

Abbildung 7.5: Modellbausteine des Systems „Brunnenkaskade“

sich alleine genommen unterbestimmt, solange wir die Schnittgrößen unbestimmt las-
sen.
Abb. 7.5 stellt die zwei Modellbausteine „Rohrleitung“ und „Brunnen“ schematisch dar.
Da wir über die Schnittgrößen s noch keine Annahmen getroffen haben, sind sie hier
alle als in die Teilsysteme eintretende Ströme (Pfeilspitzen nach innen) dargestellt.
Aus Abb. 7.3 können wir entnehmen, wie die Modellbausteine „Brunnen“ und „Rohr-
leitung“ zum Gesamt-Modell der Brunnenkaskade aggregiert werden: Der Zulauf zur
Brunnenkaskade soll gleich dem in Brunnen 1 eintretenden Strom sein; Der aus Brun-
nen 1 austretende Strom soll gleich dem in Rohr 1 eintretenden Strom sein, der aus
Rohr 1 austretende Strom gleich dem in Brunnen 2 eintretenden Strom, und so wei-
ter. Da wir alle Schnittgrößen als ins jeweilige System eintretend angenommen haben,
lauten die Bedingungen für die Verkopplung zweier Schnittgrößen si und sj und hier:

si (t) + sj (t) = 0 . (7.3)

Für die Schnittgrößen der Teilsysteme Brunnen 1, Brunnen 2, Brunnen 3, Rohr 1, und
Rohr 2:

0 = qaus,B1 (t) + qein,R1 (t) Verkopplung Becken 1 und Rohr 1, (7.4a)


0 = qaus,R1 (t) + qein,B2 (t) Verkopplung Rohr 1 und Becken 2, (7.4b)
0 = qaus,B2 (t) + qein,R2 (t) Verkopplung Becken 2 und Rohr 2, (7.4c)
0 = qaus,B2 (t) + qein,B3 (t) Verkopplung Rohr 2 und Becken 3, (7.4d)
qein,B1 (t) = qein (t) = u, Verkopplung Eingangsstrom u. Becken 1, (7.4e)
y = −qaus,B3 (t) Def. Ausgangsgröße des Gesamtsystems. (7.4f)

Es lässt sich leicht überprüfen, dass das Ausformulieren der Modellgleichungen für alle
Teilsysteme zusammen mit den Verkopplungsgleichungen (7.4a)–(7.4f) auf das System-
modell führt, welches bereits in Beispiel 2.2 eingeführt wurde.
Die systematische Vorgehensweise über die Dekomposition des zu modellierenden Sys-
tems und Aggregation der Teilsystem-Modelle lässt sich leicht auch auf komplexere Sys-
teme übertragen.

Beispiel 7.5 (Schnittgrößen und Schnittstellen in einfachen elektrischen Bautei-


len). Sie wollen ein Modell für einen Schaltkreis erstellen. Elementare Teilsysteme
180 KAPITEL 7. MODELLIERUNG STRUKTURIERTER SYSTEME

Spule Widerstand

diL
uL = L u R = R ⋅ iR
dt

Abbildung 7.6: Elementare Teilsysteme: Spule und Widerstand

des Schaltkreises sind unter anderem einfache Spulen und elektrische Widerstände,
s. Abb. 7.6. Die Modelle eines Widerstandes und einer Spule seien wie folgt definiert:
(
x(t) = ∅ , z(t) = [uR (t), iR (t)] , p = [R] ,
Widerstand: (7.5)
uR (t) = R · iR (t) ,

 x(t) = [iL (t)] , z(t) = [uL (t)] , p = [L] ,
Spule: di 1 (7.6)
 ẋ(t) = L = uL (t) .
dt t L

Der Widerstand hat keine Speichergrößen, somit ist er ein Verknüpfungssystem. Die
Spule hat eine Speichergröße (den Stromfluss iL (t)), über den die Speicherung von
elektrischer Energie beschrieben wird. Die Spule ist also ein Speichersystem.
Natürlich stehen Spulen und Widerstände in einem Schaltkreis auf irgendeine Weise mit
anderen Bauteilen in Wechselwirkung. Aber es ist zunächst nicht möglich, Eingangs-
größen oder Ausgangsgrößen festzulegen, solange nicht bekannt ist, wie die Bauteile
verschaltet werden sollen. Um eine systematische Aggregation der Spulen und Wider-
stände zu ermöglichen, können wir aber bestimmte Variablen des Spulenmodells und
des Widerstandsmodells zu Schnittgrößen erklären, und sie in geeigneten Schnittstel-
len zusammenfassen.
Abb. 7.7 stellt eine mögliche Auswahl von Schnittgrößen dar. Die beiden Modelle werden
jeweils um Variablen erweitert, die den Stromfluss i und das elektrische Potential v an
den beiden Klemmen der Bauteile beschreiben.2 Zusätzliche Gleichungen definieren den
Zusammenhang zwischen den Schnittgrößen und den Bauteil-Variablen.
Die Modelle von Widerstand und Spule können jetzt formal wie folgt beschrieben wer-
den:
x(t) = ∅ , z(t) = [uR (t), iR (t), i1 (t), i2 (t), v1 (t), v2 (t)]T , p = [R]



s1 (t) = [i1 (t), v1 (t)]T , s2 (t) = [i2 (t), v2 (t)]T






 u (t) = R · i (t) ,
R R
Widerstand:


 uR (t) = v1 (t) − v2 (t) ,



 iR (t) = i1 (t) ,

0 = i1 (t) + i2 (t) .

2
Mehr zu elektrischen Systemen im Kapitel 8.
7.4. POTENTIAL- UND FLUSSVARIABLEN 181

Teilmodell „Spule” Teilmodell „Widerstand“

uL uR
iL
iR
diL
Bauteilgleichung: uL = L u R = R ⋅ iR
dt
Einführung von
Schnittgrößen
und Schnittstellen
uL uR
iL
i1 i2 i1 i2
v1 v2 v1 iR v2
diL
Schnittstelle uL = L u R = R ⋅ iR
„Klemme 1“ dt Schnittstelle
uL = v1 − v2 u R = v1 − v2 „Klemme 2“
Verkopplung der iL = i1 i R = i1
Schnittgrößen
0 = i1 + i2 0 = i1 + i2
mit den Bauteil-
Variablen uL und iL
Schnittstelle Schnittstelle
„Klemme 2“ „Klemme 1“

Abbildung 7.7: Einführung von Schnittgrößen und Schnittstellen in den Teilsystemmo-


dellen der Spule und des Widerstandes in Beispiel 7.5.



 x(t) = [iL (t)] , z(t) = [uL (t), i1 (t), i2 (t), v1 (t), v2 (t)]T , p = [L]

s1 (t) = [i1 (t), v1 (t)]T , s2 (t) = [i2 (t), v2 (t)]T






 ẋ(t) = diL = 1 u (t) .


L
Spule: dt t L

uL (t) = v1 (t) − v2 (t) ,








 iL (t) = i1 (t) ,

 0 = i1 (t) + i2 (t) .

Jedes der beiden Modelle ist um algebraische Variablen i1 (t), i2 (t), v1 (t) und v2 (t) er-
gänzt worden. Die Vektoren s1 (t) und s2 (t) definieren jeweils die Gruppen von Schnitt-
größen, die zu einer Schnittstelle zusammengefasst werden.

7.4 Potential- und Flussvariablen

Aus Erfahrung weiß man, dass viele Arten von Wechselwirkungen zwischen physikali-
schen Systemen durch formal (mathematisch) sehr ähnliche Beziehungen beschrieben
werden. Die Gleichungen, die eine Verbindung von zwei mechanischen Bauteilen durch
182 KAPITEL 7. MODELLIERUNG STRUKTURIERTER SYSTEME

einen masselosen Flansch beschreiben

F1 (t) + F2 (t) = 0,
r1 (t) = r2 (t),

sind beispielsweise formal identisch mit den Gleichungen, die die Verknüpfung von
elektrischen Bauteilen durch einen widerstandslosen Leiter beschreiben:

i1 (t) + i2 (t) = 0
v1 (t) = v2 (t) .

Die Vektoren F1 (t) und F2 (t) der Schnittkräfte addieren sich (bei einheitlicher Wahl
der Wirkrichtungen) an der Schnittstelle zu Null, und die Ortsvektoren r1 (t) und r2 (t)
der Schnittufer sind einander identisch. Gleiche Gesetze gelten für die Stromflüsse i(t),
die sich an einem Knotenpunkt zu Null addieren (Knotenregel), und für die elektrischen
Potentiale v(t), die an einem Knotenpunkt identisch sind. Für die Variablen, die sich
zu Null addieren, haben sich in vielen Bereichen der Physik und der Simulationstechnik
die Bezeichnungen Flussgrößen oder Through-Variablen etabliert. Die Variablen, die
einander identisch sind, werden als Potentialgrößen oder Across-Variablen bezeichnet.
Tabelle 7.1 listet einige dieser Möglichkeiten auf.

elektr. Systeme mech. Systeme thermodyn. Systeme


Fluss- Stromfluss i Kraft F Stoff-Fluss Jn
Variablen: Drehmoment M Massenfluss Jm
Wärmefluss Q
Potential- Spannung u Position r Druck p
Variablen: elektr. Potential v Drehwinkel ϕ Temperatur T
Konzentration c
elementare Kirchhoff’sche Newton’sche Gesetze Massen- und Energie-
Verknüpfungs- Gesetze
Pn für
P masselose Körper bilanzen für infinite-
Gleichungen: j=1 ij = 0 Pi Fi = 0, simale
P n Bilanzvolumen
v1 = v2 = . . . = vn i Mi = 0 Pi Jim = 0,
r1 = r2 = . . . = rn i Ji = 0,
ϕ1 = ϕ2 = . . . = ϕn p1 = p2 = . . . = pn

Tabelle 7.1: Potential- und Flussvariablen in verschiedenen physikalischen Domänen

Beispiel 7.6. Auch das Verknüpfungsgesetz eines widerstandslosen Leiters kann for-
mell als Verkopplung von Potential- und Flussvariablen beschrieben werden. In Mo-
dellierungssprachen, die das Potential-Fluss-Konzept unterstützen, brauchen die Glei-
chungen dieses Verknüpfungssystems daher nicht explizit aufgeschrieben werden, son-
dern können aus der Spezifikation „Verkopple die folgenden Schnittstellen: s1 , s2 usw.“
automatisch erstellt werden.
7.4. POTENTIAL- UND FLUSSVARIABLEN 183

7.4.1 Elementare und komplexe Verknüpfungssysteme

Für viele Bereiche der Technik kann das Konzept der Potential- und Flussvariablen
genutzt werden, um Teilsysteme auf einfache Art und Weise zu aggregieren. In Mo-
dellierungssprachen, die das Potential-Fluss-Konzept unterstützen, werden die nahezu
trivialen Modellgleichungen von bestimmten Verknüpfungssystemen mit den Kopp-
lungsbedingungen zusammengefasst. Dabei werden Fluss- und Potentialvariablen bei
der Verbindung von Schnittstellen entsprechend den in Tabelle 7.1 dargestellten ele-
mentaren Verknüpfungsgleichungen unterschiedlich behandelt.
Es ist aber auch leicht einzusehen, dass viele Arten von Wechselwirkungen komplexerer
Natur sind, und nicht als Varianten dieser einfachen Wechselwirkungen interpretiert
werden können. Als Beispiel sei die folgende Verknüpfungsgleichung genannt:

ϕ1 (t) + ϕ2 (t) , (7.7a)


ϕ1 (t) = k(π1 (t) − π2 (t)) , (7.7b)

bei der ϕ1 (t) und ϕ2 (t) Flussgrößen und π1 (t) und π2 (t) Potentialgrößen von zwei
Teilmodellen sind. Viele physikalische Gesetzmäßigkeiten lassen sich in dieser Form
schreiben, beispielsweise Wärme- oder Stoffübertragung zwischen zwei konzentrierten
Systemen, oder auch die Verknüpfung von zwei Punktmassen durch eine elastische
Feder (mit π(t) als Position der beiden Punktmassen und ϕ(t) als auf die Punktmas-
sen wirkenden Kräften). Gleichungen (7.7a)–(7.7b) lassen sich nicht als Variante der
elementaren Verknüpfungsgleichungen aus Tab. 7.1 schreiben, sondern ist nach der in
diesem Kapitel beschriebenen Vorgehensweise als eigenes Teilsystem (Verknüpfungs-
system) zu modellieren.

Abel, D. (1990). Petri-Netze für Ingenieure. Modellbildung und Analyse diskret gesteu-
erter Systeme. Springer.

Bahill, A.T. und B. Gissing (1998). Re-evaluating systems engineering concepts using
systems thinking. IEEE Transactions on Systems, Man, and Cybernetics, Part C:
Applications and Reviews 28(4), S. 516 –527.

Bard, Y. (1974). Nonlinear Parameter Estimation. Academic Press New York.

Brenan, K.E., S.L. Campbell und L.R. Petzold (1996). Numerical Solution of Initial
Value Problems in Differential-Algebraic Equations. SIAM. Philadelphia, PA.

Bruns, M. (1991). Systemtechnik. Methoden zur interdisziplinären Systementwicklung.


Springer. Berlin.
184 KAPITEL 7. MODELLIERUNG STRUKTURIERTER SYSTEME

Bunge, M. (1977). Treatise on Basic Philosophy. Vol. 3: Ontology I: The Furniture of


the World. D. Riedel. Dordrecht.
Bunge, M. (1979). Treatise on Basic Philosophy. Vol. 4: Ontology II: A World of Sys-
tems. D. Riedel. Dordrecht.
Cassandras, C.G. und S. Lafortune (1999). Introduction to Discrete Event Systems.
Kluwer.
Dahmen, W. und A. Reusken (2008). Numerik für Ingenieure und Naturwissenschaftler.
Springer.
David, R. und H. Alla (2005). Discrete, Continuous, and Hybrid Petri Nets. Springer.
DIN 60617-2 bis -11: Graphische Symbole für Schaltplän (1996). Beuth Verlag.
Diwekar, Urmila M. und Jayant R. Kalagnanam (1997). Efficient sampling technique
for optimization under uncertainty. AIChE Journal 43, S. 440–447.
Föllinger, O. (2008). Regelungstechnik. Hüthig Verlag, Verlagsgruppe Hüthig Jehle
Rehm GmbH, Heidelberg, München, Landsberg, Berlin.
Föllinger, O. und D. Franke (1982). Einführung in die Zustandsbeschreibung dynami-
scher Systeme. R. Oldenbourg. München.
Fritzson, Peter (2004). Principles of Object-Oriented Modeling and Simulation with
Modelica 2.1. IEEE Press. Wiley-Interscience. ISBN: 0-471-47163-1.
Gerdin, M. (2004). Computation of a canonical form for linear differential-algebraic
equations. Proceedings of Reglermöte (Swedish National Conference on Control),
Gothenburg, Sweden.
Gigch, J.P. van (1991). System Design Modeling and Metamodeling. Springer. New
York.
Gilles, E.D., P. Holl und W. Marquardt (1986). Dynamische Simulation komplexer
chemischer Prozesse. Chem. Ing. Tech. 58, S. 268–278.
Griepentrog, E. und R. März (1986). Differential-Algebraic equations and their nume-
rical treatment. Teubner-Texte Mathematik. Leipzig.
Hangos, K. M. und I. T. Cameron (2001). Process Modelling and Model Analysis.
Academic Press.
Hirsch, Morris W. (2004). Differential equations, dynamical systems and an introduc-
tion to chaos. Elsevier Academic Press.
J.C. Morud, S. Skogestad (1998). Analysis of instability in an industrial ammonia
reactor. AIChE Journal 44, S. 888–895.
7.4. POTENTIAL- UND FLUSSVARIABLEN 185

Jerri, A.J. (1977). The Shannon sampling theorem — its various extensions and app-
lications: A tutorial review. Proc. IEEE 65, S. 1565–1596.

Jongen, H.Th. (2003). Vorlesungsskript zur Höheren Mathematik. Lehrstuhl C für Ma-
thematik, RWTH-Aachen.

Khalil, Hassan K. (2000). Nonlinear systems. Pearson Education.

Klir, G.J. (1985). Architecture of Systems Problem Solving. Plenum Press. New York.

Kramer, U. und M. Neculau (1998). Simulationstechnik. Fachbuchverlag Leipzig.

Lunze, J. (2006). Ereignisdiskrete Systeme: Modellierung und Analyse dynamischer Sys-


teme mit Automaten, Markovketten und Petrinetzen. Oldenbourg Wissenschafts-
verlag.

Marquardt, W. (2005). Simulationstechnik IV: Modellgestützte Schätzmethoden. Vorle-


sungsmanuskript. AVT-Prozesstechnik, RWTH Aachen.

Marquardt, W. (2010). Modellbildung und Analyse verfahrenstechnischer Prozesse. Vor-


lesungsmanuskript. AVT-Prozesstechnik, RWTH Aachen.

Minsky, M. (1965). Matter, mind and models. In: Proc. IFIP Congress Information
Processing (W.A. Kalenich, Hrsg.). Vol. 1. New York City, Mai 1965. Spartan
Books. Washington. S. 45–49.

Patzak, G. (1982). Systemtechnik - Planung komplexer innovativer Systeme. Springer.


Berlin.

Schlegel, Martin, Wolfgang Marquardt, Rainald Ehrig und Ulrich Nowak (2004). Sen-
sitivity analysis of linearly-implicit differential-algebraic systems by one-step ex-
trapolation. Appl. Numer. Math. 48(1), S. 83–102.

Shannon, C.E. (1998). Communication in the presence of noise. Proc. IEEE (Nach-
druck) 86, S. 447–457.

Shannon, R.E. (1975). Systems Simulation: The Art and Science. Prentice-Hall, Engle-
wood Cliffs, NJ.

Simon, H.A. (1981). The Sciences of the Artificial. 2. Auflage. The MIT Press. Cam-
brige, MA.

Stephanopoulos, G., G. Hennig und H. Leone (1990). MODEL.LA. A modeling lan-


guage for processs engineering. Comput. Chem. Engng 14, S. 813–869.

Unbehauen, H. (2007). Regelungstechnik II: Zustandsregelungen, digitale und nichtli-


neare Regelsysteme. 9. Auflage. Friedrich Vieweg & Sohn Verlag.
186 KAPITEL 7. MODELLIERUNG STRUKTURIERTER SYSTEME

Unbehauen, R. (1993). Systemtheorie. 6. Auflage. R. Oldenbourg. München.

van der Schaft, A. J. und J. M. Schumacher (1999). An Introduction to Hybrid Dyna-


mical Systems. Springer, Berlin.

VDI-Richtlinie 3633 Blatt 1 (2000). Simulation von Logistik-, Materialfluss- und Pro-
duktionssystemen, Grundlagen. VDI-Handbuch Materialfluss und Fördertechnik,
Band 8. Gründruck, Beuth, Berlin.

Zeigler, B.P. (1984). Multi-facetted Modeling and Discrete Event Simulation. Academic
Press. London.
Kapitel 8

Modellierung elektrischer Systeme

Nach der grundlegenden Theorie der vorhergehenden Kapitel soll nun die Anwendung
von Modellierung und Simulation behandelt werden. Unser Ziel ist es, durch syste-
matisches Modellieren und Simulieren ein tieferes Verständnis der realen Systeme zu
erlangen. In diesem und den nächsten Kapiteln wird dazu der Ablauf von Modellierung
und Simulation anhand von Beispielen durchlaufen werden. Dabei sollen die fachspezifi-
schen Besonderheiten der Bereiche Elektrotechnik, Mechanik und Thermodynamik für
die Modellierung aufgezeigt werden. Die Darstellung eines gewissen Grades an fachspe-
zifischer Theorie ist dabei nicht zu umgehen. Gerade dies bietet aber die Möglichkeit,
Aspekte der Modellierung und Simulation an bekannten Themen konsistent und über-
greifend kennen zu lernen und zu verstehen.
Dieses Kapitel wendet sich elektrischen Systemen zu. Es soll gezeigt werden, wie durch
eine systematische Herangehensweise die Funktion elektrischer Systeme ermittelt und
zur Simulation und Analyse abgebildet werden kann.

8.1 Strukturierung komplexer elektrischer Systeme


Reale elektrische Systeme bestehen aus einer Vielzahl von Komponenten. In der Regel
sind die Gesamtsysteme zu komplex, um sie direkt, d.h. als Ganzes, durch mathemati-
sche Gleichungen zu erfassen.
Abb. 8.1 illustriert die Vorgehensweise: Die Modellierung beginnt mit einer gedankli-
chen Zerlegung des realen Systems in funktionale Teilsysteme. Darunter verstehen wir
solche Teile eines Systems, denen wir bereits einzelne Funktionen innerhalb des Gesamt-
systems zuordnen können. Funktionale Teilsysteme eines PCs können beispielsweise
Netzteil, Hauptplatine, Grafikkarte und Prozessor sein. Die funktionalen Teilsysteme
sind durch direkte elektrische Leiter oder anderweitige Wechselwirkungen miteinan-
der gekoppelt. Zur strukturierten Zerlegung gehört auch, diese Wechselwirkungen im
einzelnen zu benennen und jeweils zwei oder mehreren Teilsystemen zuzuordnen. Als

187
188 KAPITEL 8. MODELLIERUNG ELEKTRISCHER SYSTEME

Reales Gerät

Teilsystem

Prinzipbild

Ersatzschaltbild

u (t ) y (t )
System der x (t )
elektrischen Schaltung x0 , p

Abbildung 8.1: Abstraktion vom elektrischen Gerät zum Modell. Über ein Prinzipbild
zur Klärung der Funktion wird ein Schaltbild erstellt. Ein darauf basierendes Modell
zeigt bei richtiger Abstraktion (fast) das gleiche Verhalten wie das reale Teil- oder
Gesamtsystem.

Ergebnis einer strukturierten Zerlegung erhalten wir ein Prinzip- oder Strukturbild, in
dem die Aufteilung des Systems und die Wechselwirkungen der Teilsysteme festgehal-
ten sind. Das Strukturbild stellt dar,

• welche Teilsysteme es gibt,

• welche Teilsysteme untereinander verbunden sind und

• um welche physikalische Wechselwirkung es sich bei jeder der Verbindungen han-


delt, und wie ihre Beziehung zwischen den Teilsystemen genau beschaffen ist.

Abb. 8.2 zeigt ein Beispiel eines Strukturbildes. Das Strukturbild zeigt vier Teilsysteme
(A, B, C und D) und deren Wechselwirkungen (A mit B, B mit C, B mit D, C mit D).
Je nach Komplexität der Teilsysteme werden diese wiederum in kleinere Bestandtei-
le mit definierten Wechselwirkungen zerlegt. Wir beenden diese Zerlegung, wenn wir
bei Teilsystemen angelangt sind, deren Beschreibung durch Modellgleichungen wir uns
zutrauen.
Wenn klar ist, welche physikalischen Wechselwirkungen in diesem System relevant sind,
bietet es sich an dieser Stelle an, sich auf eine einheitliche Beschreibung dieser Wech-
selwirkungen fest zu legen. Dazu führen wir Schnittgrößen ein, die typischerweise (wie
in Kap. 7 erläutert) in Fluss- und Potenzialgrößen unterteilt werden können.
8.1. STRUKTURIERUNG KOMPLEXER ELEKTRISCHER SYSTEME 189

Gesamtsystem

Phys. Wechselwirkung
(z.B. elektrischer Leiter, Induktion…)

Funktionales Teilsystem

A
B

D
C
Funktionales Teilsystem D
(Ersatzschaltbild)

Abbildung 8.2: Beispiel eines Prinzip- bzw. Strukturbildes. Für Teilsystem D ist bereits
ein Ersatzschaltbild erstellt worden.

Beispiel 8.1 (RFID-Technik). Abbildung 8.3 zeigt ein RFID-System bestehend aus
einem Lesegerät und einem Transponder. Dieses System soll modelliert werden.
Als RFID-Technik (engl. Radio Frequency Identification) bezeichnet man im weites-
ten Sinn alle Anwendungen, in denen drahtlose Kommunikation im Radiofrequenzband
(3 kHz – 300 GHz) genutzt wird, um Daten über kurze Distanzen zwischen Transpon-
der-Geräten und Lesegeräten auszutauschen. Üblicherweise läuft dabei der Datentrans-
fer nur in eine Richtung ab, d.h. von einem Transponder zu einem Lesegerät. Passive
Transponder beziehen dabei ihren Energiebedarf aus den Funksignalen des Abfragege-
räts, während aktive Transponder über eine eigene Energiequelle verfügen.
In diesem Beispiel handelt es sich um ein System mit einem passiven Transponder.
Dieser verfügt über einen Schalter, durch dessen Stellung ein binäres Datensignal ko-
diert werden kann. Das Datensignal kann vom Lesegerät ausgelesen werden, indem über
ein elektromagnetisches Feld eine Kopplung zwischen den beiden Teilsystemen herge-
stellt wird. (Durch elektromagnetische Induktion sind die Spulenspannungen der beiden
Antennen gekoppelt). Transponder und Lesegerät bilden also zusammen ein Gesamtsys-
tem, in dem die Schalterstellung am Transponder Auswirkung auf das Spannungssignal
am Lesegerät hat.
Für eine Modellierung würde man die Strukturierung wie folgt wählen:

• Das System besteht aus zwei funktionalen Teilsystemen, dem Lesegerät und dem
Transponder.
190 KAPITEL 8. MODELLIERUNG ELEKTRISCHER SYSTEME

Daten
RFID-Lesegerät RFID-Transponder (Schalter-
stellung)
Induktion
Oszillator Antenne Antenne Modulator
Daten
(Spannung) ~ i1, u1 i2, u2

Demodulator

Abbildung 8.3: RFID Strukturbild

• Die beiden Teilsysteme sind miteinander durch das elektromagnetische Feld ver-
bunden.

• Das elektromagnetische Feld bewirkt, dass zwischen den Antennenspannungen der


beiden Systeme ein Zusammenhang besteht, der in einzelnen noch modelliert wer-
den muss.

In den folgenden Beispielen wird das funktionale Teilsystem des RFID-Transponders


detaillierter modelliert.

8.2 Modellierung elektrischer Teilsysteme


Um die Funktionen eines elektrischen Schaltkreises mathematisch zu beschreiben, müs-
sen die einzelnen Bauteile durch mathematische Modelle beschrieben werden können.
Im Folgenden wird eine kurze Beschreibung der wichtigsten elektrischen Bauteile ge-
geben. Anschließend wird erläutert, wie Netzwerkgleichungen zur Beschreibung von
Schaltkreisen mit Hilfe der Kirchhoff’schen Gesetze hergeleitet werden.
Aus der Elektrotechnik sollte noch bekannt sein, dass Stromstärke und Spannung die
zwei wesentlichen Größen sind, die das Verhalten elektrischer Schaltkreise beschreiben.
Die Stromstärke (Formelzeichen i, Einheit Ampère, A) ist ein Maß für den Fluss von
elektrischer Ladung durch einen Leiter, während Spannung (Formelzeichen u, Einheit
Volt, V) ein Maß für die treibende Kraft auf die Ladung ist.
Während die Stromstärke ein absolutes Maß ist, also ohne Bezug auf eine Referenz-
größe oder einen Referenzpunkt angegeben werden kann, ist Spannung ein relatives
Maß. Spannung wird zwischen zwei Bezugspunkten gemessen. Sie kann daher auch als
Potenzialdifferenz zwischen zwei Bezugspunkten mit unterschiedlichem elektrischem
Potenzial verstanden werden.
In Simulationsmodellen ist es oftmals nützlich, statt der Spannung das elektrische Po-
tenzial (Formelzeichen v, Einheit Volt) als Rechengröße zu verwenden. Im täglichen
Umgang wird zwar meist Null Volt mit dem Massepotenzial der Erde gleichgesetzt, so
8.2. MODELLIERUNG ELEKTRISCHER TEILSYSTEME 191

dass tatsächlich die elektrische Potenziale einen absoluten Charakter erhalten. Denk-
bar sind aber auch andere Bezugspotenziale. (Hängen elektrische Komponenten an
unterschiedlichen Bezugsmassen, können Probleme wie z.B. Brummgeräusche bei HiFi-
Anlagen, auftreten.)
In elektrischen Schaltplänen wird im Allgemeinen das Erdpotenzial verwendet. Es ist
durch ein kleines Erdungssymbol im Schaltplan gekennzeichnet. Über den so gekenn-
zeichneten Punkt fließt kein Strom ab, weshalb auch keine Spannung darüber abfällt.
Das elektrische Potential dieses Punktes ist per Konvention Null Volt.

8.2.1 Bauteile
Die wichtigsten Bauteile zur Beschreibung passiver elektrischer Schaltkreise sind der
Widerstand, die Spule, der Kondensator und die Strom- oder Spannungsquelle. Alle
diese Bauteile sind zweipolig, d.h. sie haben zwei Anschlüsse (Klemmen), an denen
Strom in das Bauteil hinein- oder aus dem Bauteil heraus fließen kann. Weiterhin haben
sie eine charakteristische Bauteilgleichung, die den mathematischen Zusammenhang
zwischen dem Stromfluss i(t) durch das Bauteil und der elektrischen Spannung u(t),
die über dem Bauteil abfällt beschreiben.
Abb. 8.4 zeigt ein allgemeines Zweipol-Bauteil. Die elektrische Spannung ist gleichbe-
deutend mit der Differenz des elektrischen Potenzials der beiden Klemmen:

u(t) = v1 (t) − v2 (t) , (8.1)

und der in das Bauteil hinein fließende Strom ist mit dem Strom an Klemme 1 iden-
tisch1 :

i(t) = i1 (t) , (8.2)


i1 (t) + i2 (t) = 0 . (8.3)

Tab. 8.2.1 stellt die Bauteile mit Symbolen und ihren charakteristischen Gleichungen
dar. Der Strom, der durch einen Ohm’schen Widerstand fließt, ist direkt proportional
zur anliegenden Spannung und wird durch das Ohm’sche Gesetz u = Ri mit R als
Widerstandswert (Einheit: Ohm) beschrieben. Kondensatoren und Spulen sind dage-
gen Energiespeicher, ihre Modellierung erfordert daher eine Differentialgleichung. Beim
Kondensator wird elektrische Ladung im elektrischen Feld gespeichert. Die Änderung
der Spannung u, ist proportional zum zufließenden (Lade-)Strom, mit der Kapazität C
(Einheit: Farad, F) als Proportionalitätskonstante. Bei einer Spule wird die Energie da-
gegen im magnetischen Feld gespeichert. Diese wird durch den fließenden Spulenstrom
1
Bei Strom- und Spannungsquellen werden Strom und Spannung üblicherweise (abweichend von
dem hier dargestellten allgemeinen Zweipol, der einen Verbraucher darstellt) entgegengesetzt definiert.
Diese Konvention stammt aus der Gleichstromtechnik, und hat den Nutzen, dass Strom und Spannung
an allen Bauteilen, also auch den Quellen, das gleiche Vorzeichen haben.
192 KAPITEL 8. MODELLIERUNG ELEKTRISCHER SYSTEME

i1 0 = f (u,i) i2
v1 i v2

Abbildung 8.4: Ein allgemeines zweipoliges Verbraucher-Bauteil, bei dem Stromfluss


i und Spannung u in die gleiche Richtung zeigen. Die Größen i1 , i2 , v1 und v2 sind
Stromflüsse und elektrische Potenziale an den Klemmen. Für die Spannung u gilt:
u = v1 − v2 .

i hervorgerufen. Die Änderung des Spulenstroms i ist dabei proportional zur Spannung
u, mit der Induktivität L (Einheit: Henry, H) als Proportionalitätskonstante.
Weitere Bauteile sind Strom- oder Spannungsquellen. Ihre Bauteilgleichungen bestim-
men in der einfachsten Form lediglich den Quellenstrom oder die Quellenspannung. Der
Strom an der Spannungsquelle bzw. die Spannung an der Stromquelle sind durch das
Bauteil selber nicht bestimmt, sondern ergeben sich aus der Verschaltung des Systems.
Die aufgeführten Bauteilmodelle sind alle linear in Strom und Spannung, und stellen
idealisierte Bauteile dar. In der Realität sind vielfältige Abweichungen von diesen ein-
fachen Modellen möglich. So können Widerstände beispielsweise temperaturabhängi-
ge Widerstände und Spannungsquellen komplexe Strom-Spannungs-Kennlinien haben.
Solche nichtlinearen Bauteile müssen im Einzelfall durch eigene Modelle beschrieben

Ohm’scher Widerstand u(t) = Ri(t) i


u

Induktivität (Spule) u(t) = L di i


dt t
u

Kapazität (Kondensator) i(t) = C du i


dt t

i
Stromquelle i(t) = i0
u

Spannungsquelle u(t) = u0

Tabelle 8.1: Einfache zweipolige elektrische Bauteile und ihre Gleichungen. Die Symbole
für die einzelnen Bauteile sind durch DIN 60617 definiert.
8.2. MODELLIERUNG ELEKTRISCHER TEILSYSTEME 193

werden. Mehrpolige und nichtlineare Bauelemente wie z.B. Dioden oder Transistoren
werden hier jedoch nicht betrachtet.

8.2.2 Netzwerke

Die elektrischen Bauelemente in einem Schaltkreis bilden ein Netzwerk, welches mathe-
matisch durch sogenannte Netzwerkgleichungen repräsentiert wird. Um diese aufzustel-
len, wird zuerst die Richtung von Strom und Spannung an jedem Bauteil angetragen.
Die Wahl der Richtung ist grundsätzlich beliebig, allerdings sollten Strom- und Span-
nung gemäß der Darstellung in Tabelle 8.2.1 gewählt werden, da die Bauteilgleichungen
aus der Tabelle sonst falsch sind.
Die Netzwerkgleichungen werden nun systematisch für Knoten und Maschen des Netz-
werks aufgestellt. Knoten sind Verzweigungen zwischen Bauteilen und besitzen min-
destens drei Verbindungen zu anderen Bauteilen. Die Anzahl der Knoten ist n. Die
Verbindungen zwischen zwei Knoten werden Zweige genannt. Die Anzahl der Zweige
ist z. Maschen sind die Menge von Zweigen in einer geschlossenen Schleife, die keine
weitere Schleife enthält. Dies ist unabhängig davon, ob auf diesem Weg weitere Knoten
liegen. Die Anzahl der Maschen ist m. Die Knoten, Zweige und Maschen müssen nun
im Netzwerk identifiziert werden.
Wir führen für jeden Zweig eine Variable für den Strom ein, die für jedes Bauteil im
Zweig die selbe ist. Wir führen für jedes Bauteil eine Variable für die Spannung ein.
Danach müssen Gleichungen für die interessierenden Variablen Strom und Spannung
an den Knoten und Maschen des Netzwerks gefunden werden. Dazu werden die Kirch-
hoff’schen Gesetze verwendet:

1. Kirchhoff ’sches Gesetz (Knotenregel): Die Summe aller Ströme in einen Kno-
ten hinein ist gleich null: X
i(t) = 0 . (8.4)

2. Kirchhoff ’sches Gesetz (Maschenregel): Die Summe aller Spannungen über


eine Masche ist gleich null: X
u(t) = 0 . (8.5)

Die Modellierung eines Schaltkreises erfolgt nun durch die Anwendung dieser beiden
Gesetze auf den Stromkreis, oder genauer auf (n − 1) Knoten und z − (n − 1) Maschen.
Die übrigen Maschen- und Knotengleichungen sind linear abhängige Gleichungen. Für
die Masche werden die vorher aufgetragenen Spannungen je nach Pfeilrichtung addiert
oder subtrahiert. Am Knoten werden ebenfalls entsprechend der definierten Strompfeile
die einfließenden Ströme addiert und abfließende subtrahiert. Insgesamt bekommt man
194 KAPITEL 8. MODELLIERUNG ELEKTRISCHER SYSTEME

iT1 iT3
R2
i T2
L2 uR2

C2 uRL RL
uL1 uC2
α
β

uR T

Abbildung 8.5: Der Schaltkreis des RFID-Transponders aus Beispiel 8.1.

also z Gleichungen für Knoten und Maschen. Dazu kommen die Bauteilgleichungen.
Insgesamt ergeben sich Freiheitsgrade für Spannungs- und Stromquellen, nicht aber für
Widerstand, Kapazität und Spule.

Beispiel 8.2 (Modellierung des RFID-Transponders). Das Teilsystem „RFID-Trans-


ponder“ aus Beispiel 8.1 soll detailliert modelliert werden. Das Ersatzschaltbild ist in
Abbildung 8.5 dargestellt.

Das Ersatzschaltbild besteht aus fünf Bauteilen: Zwei Widerstände R2 und RL , eine
Kapazität C2 , eine Induktivität L2 und eine Spannungsquelle. Die Spannungsquelle steht
für die Antenne des Transponders, in der durch das vom Lesegerät erzeugte Feld eine
Spannung uR→T induziert wird. Da diese Spannung durch das Lesegerät vorgegeben ist,
behandeln wir sie hier wie eine Eingangsgröße.

Die Gleichungen der Bauelemente lauten:

uR2 (t) = R2 iT 1 (t) (8.6a)


diT 1
uL1 (t) = L (8.6b)
dt t
uRL (t) = RL iT 3 (t) (8.6c)
duC2
iT 2 (t) = C2 (8.6d)
dt t

Im Schaltkreis (Abbildung 8.5) ergeben sich insgesamt ein Knoten und zwei Maschen
(α und β). Die Anwendung der Kirchhoff ’schen Gesetze ergibt:
8.3. AGGREGATION ZUM MODELL DES GESAMTSYSTEMS 195

Knoten 1: iT 1 (t) − iT 2 (t) − iT 3 (t) = 0 (8.7a)


Masche α: − uR→T (t) + uL1 (t) + uR2 (t) + uC2 (t) = 0 (8.7b)
Masche β: − uC2 (t) + uRL (t) = 0 (8.7c)

Als Variablen erhält man die 3 Ströme iT 1 (t), iT 2 (t), iT 3 (t) und die 4 Spannungen
uL1 (t), uR2 (t), uC2 (t) und uRL (t). Dem stehen die 4 Bauteilgleichungen (8.6) und die
3 Netzwerkgleichungen (8.7) gegenüber. Zusätzlich kommt die Eingangsgröße uR→T (t)
hinzu. Folglich treten genauso viele unbekannte Variablen wie Gleichungen auf, so dass
das Gleichungssystem lösbar ist. Damit wurde ein Gleichungssystem aufgestellt, welches
das Teilsystem vollständig beschreibt.
Für eine weitergehende Analyse soll nun im nächsten Abschnitt die Umwandlung des
sich bei der Modellierung ergebenden linearen DA-Systems in die lineare Zustandsdar-
stellung gezeigt werden.

8.3 Aggregation der Teilsystem-Modelle zum Modell


des Gesamtsystems

Sind die Teilsysteme alle beschrieben, können die Teilsystem-Modelle Schritt für Schritt
zum Modell des Gesamtsystems zusammengeführt werden. Dazu sind die Wechsel-
wirkungen zwischen den Teilsystemen, die im Schritt „Strukturierung“ benannt und
aufgezählt wurden, in mathematischer Form aufzuschreiben, und die Schnittgrößen
der Teilsysteme in die sich ergebenden Gleichungen einzusetzen. ZurP Erinnerung sei
hier nochmal auf die Anwendung von Fluss- und Potenzial-Regeln ( i(t) = 0 und
vi (t) = vj (t)) hingewiesen. Sollten des weiteren Eingangs- oder Ausgangsgrößen für
das System vorhanden sein, dann werden diese mit den Schnittgrößen der betreffenden
Teilsysteme gleichgesetzt.

8.4 Darstellung und Analyse elektrischer Systeme

Hier soll das erhaltene Gleichungssystem umgewandelt werden, so dass die theoretische
Analyse des elektrischen Systems möglich wird. Dazu wird an die Ausführungen zur
Überführung in Zustandsdarstellung aus Kapitel 5 angeknüpft und auf ein Beispiel
zurückgegriffen.
Die identifizierbaren Zustandsgrößen sind iT 1 (t) und uC2 (t). Es ergeben sich ausgehend
196 KAPITEL 8. MODELLIERUNG ELEKTRISCHER SYSTEME

von Gleichung 8.6b und 8.6d die beiden Differentialgleichungen:


diT 1 1
= uL1 (t) (8.8)
dt t L
duC2 1
= iT 2 (t) . (8.9)
dt t C

Zusätzlich gelten die algebraischen Gleichungen (8.7a) bis (8.7c), (8.6a) und (8.6c), die
dafür verwendet werden, die Zustandsgrößen als Funktion der Eingangsgrößen abzu-
bilden. In (8.8) werden die Gleichungen (8.7b) und (8.6a) eingesetzt. In die Gleichung
(8.9) werden die Gleichungen (8.7a), (8.7c) und (8.6c) eingesetzt. Die sich ergebende
lineare Zustandsraumdarstellung ist:
R2 1 1
ẋ1 (t) = · x1 (t) − x2 (t) + u(t) , (8.10a)
L L L
1 1
ẋ2 (t) = x1 (t) − x2 (t) (8.10b)
C RL · C
mit  
iT 1 (t)
x(t) = , u(t) = uRT (t) .
uC2 (t)
Damit können die in Kapitel 5 vorgestellten Analysemethoden eingesetzt werden, um
noch vor einer Simulation das Modell auf Lösbarkeit, Ruhelagen und Stabilität zu
untersuchen.

8.5 Implementierung und Simulation


Die Implementierung des erhaltenen linearen DA-Systems ist meist ohne Probleme
möglich. Dies gestaltet sich in Modelica besonders einfach, da aus den eingegebenen
Gleichungen durch symbolische Transformation ein numerisch lösbares Gleichungssys-
tem erzeugt wird. Die Ableitung der Zustandsdarstellung ist daher für die Simulation
in Modelica nicht notwendig.
Bei der Implementierung in Modelica kann auf Variablen- und Parametertypen ent-
sprechend den SI-Einheiten zurückgegriffen werden (s. Tab. 8.2). Es ergibt sich der in
Abbildung 8.6 links dargestellte Modellauszug.
Neben der direkten Implementierung ist auch die Verwendung von wiederverwendbaren
Bausteinen aus der Modelica-Bibliothek möglich (speziell /Modelica/Electrical/Ana-
log). Dort sind packages für die oben genannten (analogen) elektrischen Bauteile ent-
halten, welche bereits die beschriebenen Bauteilgleichungen enthalten. Aufgrund der
Abstraktion der realen Verbindung als Schaltplan (idealisierte Verbindungen zwischen
den Bauteilen) kann durch einfaches grafisches Verknüpfen ein Stromkreis erstellt wer-
den. Nach Spezifikation der Parameter kann dieses grafische Modell genau wie ein
8.6. ZUSAMMENFASSUNG 197

Tabelle 8.2: In der Elektrotechnik gebräuchliche Typen, welche in Modelica mit ent-
sprechenden SI-Einheiten in der Bibliothek vordefiniert sind.
Type SI-Einheit
Voltage Volt [V]
Current Ampere [A]
Resistance Ohm [Ω]
Inductance Henry [H]
Capacitance Farad [F]
Frequency Hertz [Hz]

manuell geschriebenes Gleichungssystem simuliert werden (siehe Gegenüberstellung in


Bild 8.6). Zu beachten ist, dass hier unbedingt das Massepotenzial in Form einer Er-
dung (ebenfalls als Bibliotheksbaustein verfügbar) verwendet wird.

Abbildung 8.6: Implementierung des RFID-Transponders in Modelica durch grafische


Modellierung.

8.6 Zusammenfassung
In diesem Kapitel ist die Modellierung und Simulation elektrischer Systeme gezeigt
worden. Abb. 8.7 stellt zusammenfassend den Modellierungs- und Simulationsprozess
für elektrische Systeme dar. Die elektrischen Systeme lassen sich durch Zerlegen in
198 KAPITEL 8. MODELLIERUNG ELEKTRISCHER SYSTEME

Teilsysteme in ihrer Komplexität reduzieren. Ein Ersatzschaltbild mit linearen Bautei-


len kann dann einfach über Bauteil- und Netzwerkgleichungen in seiner Struktur und
Funktionalität mathematisch abgebildet werden. Die erhaltenen linearen Gleichungen
lassen sich meist in Zustandsdarstellung transformieren, um weitergehende Analyse
zu ermöglichen. Zur Simulation in Modelica gibt es zwei äquivalente Möglichkeiten:
Einerseits die direkte Implementierung der mathematischen Gleichungen, andererseits
die Verwendung wiederverwendbarer Bibliothekselemente in grafischer Form.

Model-
System + Problem Ergebn.
lieren & Simulations- Simu- Lösung des
Problem- ver- interpre-
analy- modell lieren Problems
stellung stehen tieren
sieren

System in funktionale Teilsysteme zerlegen


Strukturbild erstellen
Teilsysteme durch Ersatzschaltungen abstrahieren

Bezugspotential definieren
Von Hand oder durch Simulator:
Kirchhoff’sche Gesetze anwenden, Maschen- und
Knotengleichungen zusammenführen
Modell des Gesamtsystems herleiten

Parameter der Strom- und


Spannungsquellen festlegen
Anfangsbedingungen festlegen
System numerisch lösen

Abbildung 8.7: Modellierungs- und Simulationsprozess für elektrische Systeme

Gerade die einfache grafische Modellierung eines Schaltplanes mit idealisierten Verbin-
dungen verdeutlicht die hohe Abstraktion der elektrischen Verknüpfungssysteme. Bei
den folgenden mechanischen Systemen ist diese Abstraktion schwieriger und es wird
stärker auf die Verknüpfungen eingegangen werden.

Abel, D. (1990). Petri-Netze für Ingenieure. Modellbildung und Analyse diskret gesteu-
erter Systeme. Springer.
Bahill, A.T. und B. Gissing (1998). Re-evaluating systems engineering concepts using
systems thinking. IEEE Transactions on Systems, Man, and Cybernetics, Part C:
Applications and Reviews 28(4), S. 516 –527.
8.6. ZUSAMMENFASSUNG 199

Bard, Y. (1974). Nonlinear Parameter Estimation. Academic Press New York.

Brenan, K.E., S.L. Campbell und L.R. Petzold (1996). Numerical Solution of Initial
Value Problems in Differential-Algebraic Equations. SIAM. Philadelphia, PA.

Bruns, M. (1991). Systemtechnik. Methoden zur interdisziplinären Systementwicklung.


Springer. Berlin.

Bunge, M. (1977). Treatise on Basic Philosophy. Vol. 3: Ontology I: The Furniture of


the World. D. Riedel. Dordrecht.

Bunge, M. (1979). Treatise on Basic Philosophy. Vol. 4: Ontology II: A World of Sys-
tems. D. Riedel. Dordrecht.

Cassandras, C.G. und S. Lafortune (1999). Introduction to Discrete Event Systems.


Kluwer.

Dahmen, W. und A. Reusken (2008). Numerik für Ingenieure und Naturwissenschaftler.


Springer.

David, R. und H. Alla (2005). Discrete, Continuous, and Hybrid Petri Nets. Springer.

DIN 60617-2 bis -11: Graphische Symbole für Schaltplän (1996). Beuth Verlag.

Diwekar, Urmila M. und Jayant R. Kalagnanam (1997). Efficient sampling technique


for optimization under uncertainty. AIChE Journal 43, S. 440–447.

Föllinger, O. (2008). Regelungstechnik. Hüthig Verlag, Verlagsgruppe Hüthig Jehle


Rehm GmbH, Heidelberg, München, Landsberg, Berlin.

Föllinger, O. und D. Franke (1982). Einführung in die Zustandsbeschreibung dynami-


scher Systeme. R. Oldenbourg. München.

Fritzson, Peter (2004). Principles of Object-Oriented Modeling and Simulation with


Modelica 2.1. IEEE Press. Wiley-Interscience. ISBN: 0-471-47163-1.

Gerdin, M. (2004). Computation of a canonical form for linear differential-algebraic


equations. Proceedings of Reglermöte (Swedish National Conference on Control),
Gothenburg, Sweden.

Gigch, J.P. van (1991). System Design Modeling and Metamodeling. Springer. New
York.

Gilles, E.D., P. Holl und W. Marquardt (1986). Dynamische Simulation komplexer


chemischer Prozesse. Chem. Ing. Tech. 58, S. 268–278.

Griepentrog, E. und R. März (1986). Differential-Algebraic equations and their nume-


rical treatment. Teubner-Texte Mathematik. Leipzig.
200 KAPITEL 8. MODELLIERUNG ELEKTRISCHER SYSTEME

Hangos, K. M. und I. T. Cameron (2001). Process Modelling and Model Analysis.


Academic Press.

Hirsch, Morris W. (2004). Differential equations, dynamical systems and an introduc-


tion to chaos. Elsevier Academic Press.

J.C. Morud, S. Skogestad (1998). Analysis of instability in an industrial ammonia


reactor. AIChE Journal 44, S. 888–895.

Jerri, A.J. (1977). The Shannon sampling theorem — its various extensions and app-
lications: A tutorial review. Proc. IEEE 65, S. 1565–1596.

Jongen, H.Th. (2003). Vorlesungsskript zur Höheren Mathematik. Lehrstuhl C für Ma-
thematik, RWTH-Aachen.

Khalil, Hassan K. (2000). Nonlinear systems. Pearson Education.

Klir, G.J. (1985). Architecture of Systems Problem Solving. Plenum Press. New York.

Kramer, U. und M. Neculau (1998). Simulationstechnik. Fachbuchverlag Leipzig.

Lunze, J. (2006). Ereignisdiskrete Systeme: Modellierung und Analyse dynamischer Sys-


teme mit Automaten, Markovketten und Petrinetzen. Oldenbourg Wissenschafts-
verlag.

Marquardt, W. (2005). Simulationstechnik IV: Modellgestützte Schätzmethoden. Vorle-


sungsmanuskript. AVT-Prozesstechnik, RWTH Aachen.

Marquardt, W. (2010). Modellbildung und Analyse verfahrenstechnischer Prozesse. Vor-


lesungsmanuskript. AVT-Prozesstechnik, RWTH Aachen.

Minsky, M. (1965). Matter, mind and models. In: Proc. IFIP Congress Information
Processing (W.A. Kalenich, Hrsg.). Vol. 1. New York City, Mai 1965. Spartan
Books. Washington. S. 45–49.

Patzak, G. (1982). Systemtechnik - Planung komplexer innovativer Systeme. Springer.


Berlin.

Schlegel, Martin, Wolfgang Marquardt, Rainald Ehrig und Ulrich Nowak (2004). Sen-
sitivity analysis of linearly-implicit differential-algebraic systems by one-step ex-
trapolation. Appl. Numer. Math. 48(1), S. 83–102.

Shannon, C.E. (1998). Communication in the presence of noise. Proc. IEEE (Nach-
druck) 86, S. 447–457.

Shannon, R.E. (1975). Systems Simulation: The Art and Science. Prentice-Hall, Engle-
wood Cliffs, NJ.
8.6. ZUSAMMENFASSUNG 201

Simon, H.A. (1981). The Sciences of the Artificial. 2. Auflage. The MIT Press. Cam-
brige, MA.

Stephanopoulos, G., G. Hennig und H. Leone (1990). MODEL.LA. A modeling lan-


guage for processs engineering. Comput. Chem. Engng 14, S. 813–869.

Unbehauen, H. (2007). Regelungstechnik II: Zustandsregelungen, digitale und nichtli-


neare Regelsysteme. 9. Auflage. Friedrich Vieweg & Sohn Verlag.

Unbehauen, R. (1993). Systemtheorie. 6. Auflage. R. Oldenbourg. München.

van der Schaft, A. J. und J. M. Schumacher (1999). An Introduction to Hybrid Dyna-


mical Systems. Springer, Berlin.

VDI-Richtlinie 3633 Blatt 1 (2000). Simulation von Logistik-, Materialfluss- und Pro-
duktionssystemen, Grundlagen. VDI-Handbuch Materialfluss und Fördertechnik,
Band 8. Gründruck, Beuth, Berlin.

Zeigler, B.P. (1984). Multi-facetted Modeling and Discrete Event Simulation. Academic
Press. London.
202 KAPITEL 8. MODELLIERUNG ELEKTRISCHER SYSTEME
Kapitel 9

Modellierung mechanischer Systeme

In diesem Kapitel betrachten wir mechanische Systeme, welche aus starren Körpern
bestehen, die durch elastische oder starre Kupplungen verbunden sind. Wir erstellen
Simulationsmodelle dieser Systeme, um die Bewegungen (Kinematik) und die dabei
auftretenden Kräfte (Dynamik) zu untersuchen.
Beispiele aus der Anwendung wären ein Roboter, dessen Bewegungsablauf simuliert
werden soll, ein Tragwerk, dessen Belastung unter der Einwirkung dynamischer Kräfte
bestimmt werden soll oder das Fahrwerk eines Autos, dessen Quer- und Längsdynamik
untersucht werden soll.
Abbildung 9.1 fasst die wesentlichen Punkte des Modellierungs- und Simulationspro-
zesses eines (einfachen) mechanischen Systems zusammen: Der erste Schritt umfasst
das Begreifen der Funktionsweise des zu simulierenden Systems und eine Unterteilung
des Systems in sinnvolle, funktional getrennte Teilsysteme, die miteinander in Wech-
selwirkung stehen. Der zweite Schritt ist die Modellierung der Teilsysteme und ihrer
Wechselwirkungen, d.h. das Aufstellen von Modellgleichungen für die Speichersysteme
und Verknüpfungssysteme und das Feststellen von Schnittgrößen. Auch das Aufstellen
der Rand- und Zwangsbedingungen, die notwendig sind um auf ein vollständig spezi-
fiziertes Modell zu kommen, erfolgt in diesem Schritt. Für die Simulation des Modells
schließlich werden die Anfangswerte der Zustände des Modells (d.h. üblicherweise Po-
sitionen und Geschwindigkeiten der Komponenten) und die Umgebungsbedingungen
festgelegt. Schließlich wird das Modell numerisch gelöst.
Die folgenden Abschnitte erläutern die Vorgehensweise bei der Modellierung und Si-
mulation von mechanischen Systemen.

9.1 Strukturierung mechanischer Systeme


Als erstes wird das zu simulierende System betrachtet und hinsichtlich seiner für die
Simulation relevanten Eigenschaften analysiert. Für die hier betrachteten mechanischen

203
204 KAPITEL 9. MODELLIERUNG MECHANISCHER SYSTEME

Model-
System + Problem Ergebn.
lieren & Simulations- Simu- Lösung des
Problem- ver- interpre-
analy- modell lieren Problems
stellung stehen tieren
sieren

Funktion des Systems verstehen


System in Teilsysteme unterteilen
Wechselwirkungen der Teilsysteme beschreiben

Koordinatensystem wählen
Gleichung für Speichersysteme aufstellen
Gleichungen für Verknüpfungssysteme aufstellen
Rand- und Zwangsbedingungen festlegen (vollständige Spezifikation)

Externe Kräfte vorgeben


Anfangspositionen und -geschwindigkeiten wählen
Modell numerisch lösen

Abbildung 9.1: Modellierungs- und Simulationsprozess für mechanische Systeme

Systeme – in denen vorrangig die Bewegung der Systemteile und die dabei auftretenden
Kräfte von Interesse sind – bedeutet dies, dass zunächst die Funktion des Systems
geklärt und anschließend das System in Teilsysteme unterteilt wird. Die Teilsysteme
sind dabei so zu wählen, dass einerseits jedes Teilsystem für sich unabhängig vom Rest
des Modells verstanden werden kann, andererseits die Schnittgrößen zur Umgebung und
zu anderen Teilsystemen auf möglichst einheitliche und verständliche Weise beschrieben
werden können.

9.1.1 Zerlegung in Teilsysteme

Im Folgenden werden mechanische Systeme als Aggregationen von Teilsystemen aufge-


fasst. Teilsysteme können Speichersysteme, Verknüpfungssysteme oder wiederum Ag-
gregationen von Speichersystemen und Verknüpfungssystemen sein.
Bei der Modellierung mechanischer Systeme verstehen wir unter Speichersystemen star-
re, massebehaftete Körper mit den folgenden Eigenschaften:

• Zustände: Positionen, Geschwindigkeiten;

• Schnittgrößen: Positionen, Kräfte und Momente;

• Parameter : Massen, Trägheitsmomente, Geometrie-Parameter.


9.1. STRUKTURIERUNG MECHANISCHER SYSTEME 205

Verknüpfungssysteme hingegen dienen, wie in Kapitel 7 beschrieben, der Übertragung


von extensiven Flussgrößen zwischen Speichersystemen und haben selber keine Spei-
cher. Sie sind masselos und definieren den Zusammenhang zwischen den Schnittgrößen
der verbundenen Speichersysteme.
Verknüpfungssysteme haben die folgenden Eigenschaften:

• Zustände: keine;

• Schnittgrößen: Positionen, Kräfte und Momente;

• Parameter : Geometrie-Parameter.

Abb. 9.2 zeigt ein System aus zwei starren Körpern, und einer Feder, die miteinander
verbunden sind. Die starren Körper stellen hierbei Speichersysteme und die Feder ein
Verknüpfungssystem dar.

Verknüpfungssystem 1
Speichersystem 1 (Feder) Speichersystem 2
(starrer Körper) v3
(starrer Körper)
ey,3

r3
ey,0
ϕ3
ex,0
ω3 ex,3
Welt-Koordinatensystem

Abbildung 9.2: Ein mechanisches System, bestehend aus zwei Speichersystemen und
einem Verknüpfungssystem. Die Bewegung von Speichersystem 2 wird durch die Posi-
tion r3 und die Geschwindigkeit v3 seines Schwerpunktes sowie durch den Drehwinkel
ϕ3 und seine Rotationsgeschwindigkeit ω3 beschrieben.

Jedes Teilsystem wird durch Gleichungen beschrieben. Für starre Körper (Speicher-
systeme) sind dies die Newton’schen Gleichungen, welche die Bewegung des Schwer-
punktes in Abhängigkeit von den auf den Körper wirkenden Kräften beschreiben, sowie
alle zusätzlich erforderlichen Gleichungen, die beispielsweise die Geometrie des Körpers
oder Einschränkungen der freien Bewegung beschreiben.
Verknüpfungssysteme definieren den Zusammenhang zwischen den Schnittgrößen der
verbundenen Speichersysteme: Bei diesen Schnittgrößen kann es sich um Kräfte han-
deln, die durch die Relativbewegung der verknüpften Speichersysteme verursacht wer-
den und auf die Speichersysteme wirken (z.B. Federkräfte, Reibkräfte) oder um Posi-
tionen der Speichersysteme.
206 KAPITEL 9. MODELLIERUNG MECHANISCHER SYSTEME

ey

ex
g

Abbildung 9.3: (Bsp. 9.1) Zwei Pendel, mit einer Feder verbunden. g: Erdbeschleuni-
gung, ex , ey Einheitsvektoren des Koordinatensystems.

Schnittgrößen

freigeschnittenes freigeschnittene freigeschnittenes


Pendel Feder Pendel

Abbildung 9.4: (Bsp. 9.1) Freigeschnittene Teilsysteme

Beispiel 9.1 (Pendel und Feder — Strukturierung des Systemmodells). Die Bewe-
gung zweier durch eine Feder verbundener Pendel (Abb. 9.3) soll durch ein Modell
beschrieben werden. Die Position der Pendel sei in einem zweidimensionalen kartesi-
schen Welt-Koordinatensystem (KOS) mit Ursprung im Aufhängungspunkt des linken
Pendels zu beschreiben. ex und ey bezeichnen die Einheitsvektoren des KOS, g die
Richtung der Erdbeschleunigung.
In diesem Beispiel ist leicht zu erkennen, dass das Gesamtsystem aus zwei Speichersys-
temen (den Pendeln) sowie einem Verknüpfungssystemen besteht (der Feder), welches
eine Wechselwirkung zwischen diesen beiden beschreibt (die Federkraft, welche auf beide
Körper wirkt). Prinzipiell könnte auch die Feder als massebehaftet beschrieben werden,
damit gäbe es mehr als nur die zwei Speichersysteme. Im Folgenden soll die Feder aber
als masselos betrachtet werden.
Abb. 9.4 zeigt, wie das System in die drei Teilsysteme unterteilt wird. An den Schnitt-
stellen sind Schnittgrößen (Kräfte) einzuführen, die in positiver Koordinatenrichtung
zeigen. Wir stellen uns die Schnittstellen in diesem Beispiel so vor, dass die Feder
kraftschlüssig mit einer Art Drehgelenk an den Pendelmassen befestigt wird, d.h. es
9.1. STRUKTURIERUNG MECHANISCHER SYSTEME 207

Modell „Pendel“, Modell „Pendel“,


Instanz „1“ Instanz „2“
Schnittstellen für
Anbindung an
andere Modelle
noch nicht näher
spezifizierte Verknüpfung

Modell „Feder“

Schnittstelle Schnittstelle
Schnittstelle „1“ „2“ Schnittstelle

Abbildung 9.5: (Bsp. 9.1) Abstrahierung der Teilsysteme als Instanzen eines allgemei-
nen Modells „Pendel“ und eines allgemeinen Modells „Feder“, jeweils mit Schnittstellen.

werden nur Kräfte aber keine Drehmomente übertragen.


Abb. 9.5 zeigt wie nun die drei Teilsysteme als Instanzen allgemein gehaltener mecha-
nischer Modelle aufgefasst werden können: Offensichtlich sind sich die beiden Pendel so
ähnlich, dass sie als Instanzen eines allgemeinen Modells „Pendel“ abstrahiert werden
können. Die Feder ist eine Instanz eines allgemeinen Modells „Feder“. Wir legen fest,
dass ein Modell „Pendel“ nur an einer Stelle mit anderen Objekten verbunden werden
kann, und zwar über eine noch nicht näher spezifizierte Schnittstelle direkt am Schwer-
punkt der Pendelmasse. Die Feder kann an ihren beiden Enden mit anderen Modellen
verbunden werden.

9.1.2 Modellierung mechanischer Systeme

Auch bei der Modellierung mechanischer Systeme wird zunächst eine Vorzeichenkon-
vention für alle Teilsysteme wie in Abb. 9.6 dargestellt eingeführt: Alle Kräfte und
Momente werden in positiver Koordinatenrichtung angenommen.
Zur Beschreibung der mechanischen Systeme ziehen wir im Folgenden die Newton’schen
Gesetze heran. Dies ist zum einen das Kräftegleichgewicht
X
mv̇(t) = F (t) (9.1)

mit
P m als Masse eines Körpers (Skalar), v(t) als seiner Geschwindigkeit (Vektor) und
F (t) als der Summe der am Körper angreifenden Kräfte (Vektor) und zum anderen
das Momentengleichgewicht
X
Θω̇(t) = M (t) (9.2)
208 KAPITEL 9. MODELLIERUNG MECHANISCHER SYSTEME

Fy2 F‘y2 F‘y3


Fx2 F‘x2
M2 F‘x3
Speichersystem 1 M‘2 M‘3 Fy3
Verknüpfungssystem 2 Fx3
Fy1 M3

Fx1 Speichersystem 2
M1
F‘y1
M‘1
Verknüpfungssystem 1
F‘x1

Abbildung 9.6: (Bsp. 9.1) Vorzeichenkonvention für alle Teilsysteme. Alle Kräfte und
Momente werden in positiver Koordinatenrichtung angenommen.

mit Θ als Rotations-Trägheitsmoment des P Körpers (Matrix), ω(t) als Rotationsge-


schwindigkeit des Körpers (Vektor), und M (t) als der Summe der am Körper an-
greifenden Drehmomente (Vektor).
Sind die Teilsysteme sinnvoll unterteilt, dann können die Newton’schen Gesetze ange-
wandt werden, um die Bewegungsgleichungen herzuleiten. Für Speichersysteme resul-
tieren Differentialgleichungen, die z.B. für kartesische Koordinatensysteme in vektori-
eller Darstellung die Form

ṙ(t) = v(t) , (9.3)


X
mv̇(t) = F (t) , (9.4)
ϕ̇(t) = ω(t) , (9.5)
X
Θω̇(t) = M (t) (9.6)

annehmen. (Hierbei können die einzelnen Größen jeweils Skalare, Vektoren oder Tenso-
ren sein, je nachdem ob eine eindimensionale, zweidimensionale oder dreidimensionale
Bewegung modelliert werden soll.) Die Gleichungen (9.3) und (9.5) sind lediglich De-
finitionsgleichungen für die Geschwindigkeit v(t) und die Rotationsgeschwindigkeit ω,
die notwendig sind, um ein Differentialgleichungssystem 1. Ordnung zu bekommen. Die
Gl. (9.4) und (9.6) entsprechen den Gl. (9.1) und (9.2). Die Kräfte F (t) und Drehmo-
mente M (t) in Gl. (9.4) und (9.6) sind zunächst unbekannte Größen, die durch weitere
Gleichungen aus den Bewegungsgrößen, der Geometrie usw. bestimmt werden müssen.
Verknüpfungssysteme sind masselos, d.h. die Summe der angreifenden Kräfte und Mo-
menten ist gemäß Gl. (9.4) und (9.6) Null. Kräftegleichgewicht und Momentengleich-
9.1. STRUKTURIERUNG MECHANISCHER SYSTEME 209

ey
{x0 , y0}

ex
M
vy g
L cosj L
w Fy
j j
m vx Fx
Fg
L sinj {x , y}

Abbildung 9.7: Skizze der Geometrie (links), der Bewegungsgrößen (Mitte) und der
Kräfte und Momente (rechts) für das allgemeine Pendelmodell.

gewicht nehmen also die folgende Form an:


X
F (t) = 0 , (9.7)
X
M (t) = 0 . (9.8)

Für den einfachsten Fall eines Verknüpfungssystems reichen diese beiden Gleichungen
bereits zur Modellierung aus. Komplexere Verknüpfungssystem wie beispielsweise die
Feder in Abb. 9.4 erfordern weitere Gleichungen.
Beispiel 9.2 (Pendel und Feder — Modellierung der Teilsysteme).
Pendel-Modell: Ein Pendel der Länge L und der Masse m sei, wie in Abb. 9.7,
an einem ortsfesten Punkt aufgehängt. Die Position der Pendelmasse im kartesischen
Koordinatensystem {ex , ey } mit Ursprung im Pendelaufhängungspunkt {x0 , y0 } wird
durch die Koordinaten x und y beschrieben.
Die Bewegung des Pendels wird der Einfachheit halber in Polarkoordinaten durch die
Auslenkung aus der Ruhelage ϕ(t) und die Drehgeschwindigkeit ω(t) beschrieben.
Das Momentengleichgewicht (9.2) liefert die Beziehung zwischen dem Drehmoment
M (t) im Aufhängungspunkt und der Drehgeschwindigkeit ω(t) ,
Θω̇(t) = mL2 ω̇(t) = M (t) . (9.9)

Das Drehmoment wird durch die an der Pendelmasse angreifenden externen Kräfte
erzeugt. An der Pendelmasse greifen als externe Kräfte die Gewichtskraft Fg = mg
sowie die Schnittkräfte Fx und Fy an. Wir nehmen sie gemäß Vorzeichenkonvention in
positiver Koordinatenrichtung an:
M = (Fx (t) cos(ϕ(t)))L + (Fy (t) sin(ϕ(t)))L − (mg sin(ϕ(t)))L
(9.10)
= Fx (t)L cos(ϕ(t)) + (Fy (t) − mg)L sin(ϕ(t)) .
210 KAPITEL 9. MODELLIERUNG MECHANISCHER SYSTEME

Der Zusammenhang zwischen der Drehgeschwindigkeit ω und der Auslenkung ϕ lautet

ϕ̇(t) = ω(t) . (9.11)

Nun werden noch weitere Gleichungen aus der Geometrie aufgestellt,

x(t) = x0 + L sin(ϕ(t)) , (9.12)


y(t) = y0 − L cos(ϕ(t)) , (9.13)
d
vx (t) = (L sin ϕ) = Lω(t) cos(ϕ(t)) , (9.14)
dt t
d
vy (t) = − (L cos ϕ) = Lω(t) sin(ϕ(t)) . (9.15)
dt t

Somit ist die Bewegung des Systems vollständig durch die Gl. (9.9) - Gl. (9.15) beschrie-
ben. Zur Berechnung der Lagerkräfte im Aufhängungspunkt könnte noch der Impulssatz
hinzugezogen werden. Darauf soll hier aber verzichtet werden.
Feder-Modell: Die Feder, dargestellt in Abb. 9.8, wird als masselos angenommen
und stellt somit ein Verknüpfungssystem dar. Die Gleichungen des Federmodells müs-
sen also so aufgestellt werden, dass aus gegebenen Positionen der Enden der Fe-
der {x1 (t), y1 (t)} und {x2 (t), y2 (t)}, die Schnittkräfte F1 (t) = [Fx1 (t), Fy1 (t)]T und
F2 (t) = [Fx2 (t), Fy2 (t)]T eindeutig berechnet werden können. Die Feder habe im un-
gestreckten Zustand die Länge L0 . Die Streckung dL(t) (der Feder) sei proportional
zur Belastung der Feder mit einer Proportionalitätskonstante c (Federsteifigkeit). Die
Gesamtlänge sei L mit
L(t) = L0 + dL(t) . (9.16)
Das Kräftegleichgewicht (9.1) liefert die Beziehung zwischen den angreifenden Kräften
für m = 0
X
0= Fx (t) ⇔ 0 = Fx1 (t) + Fx2 (t) , (9.17)
X
0= Fy (t) ⇔ 0 = Fy1 (t) + Fy2 (t) . (9.18)

Es müssen nun weitere Gleichungen zur Berechnung der Schnittkräfte F1 (t) und F2 (t)
aufgestellt werden. Die Vorgehensweise dabei ist wie folgt:

1. Berechnung der geometrischen Größen L(t) und ϕ(t) der Feder aus den Positio-
nen {x1 (t), y1 (t)} und {x2 (t), y2 (t)}

2. Berechnung der Federkraft FC (t) aus der Geometrie und der Federkonstanten

3. Aufstellen des Zusammenhangs zwischen den Schnittkräften F1 (t) und F2 (t) aus
der Federkraft und der Federgeometrie.
9.1. STRUKTURIERUNG MECHANISCHER SYSTEME 211

L ex {x2 , y2}
Fy2 Fc
Fx1
ϕ L sinϕ Fx2
ey
L cosϕ {x1 , y1} Fy1

Abbildung 9.8: Skizze der Geometrie (links), der Positionen (Mitte) und der Kräfte
(rechts) im Federmodell.

Für die Länge L(t) der Feder gilt

(9.19)
p
L(t) = (x2 (t) − x1 (t))2 + (y2 (t) − y1 (t))2 .

Der Winkel ϕ(t) beschreibt die Verdrehung der Feder gegenüber der Waagerechten. Aus
Abb. 9.8 ist erkennbar, dass ϕ(t) aus den Koordinaten der Schnittstellen als

y2 (t) − y1 (t)
tan(ϕ(t)) = (9.20)
x2 (t) − x1 (t)

oder
y2 (t) − y1 (t)
sin(ϕ(t)) = (9.21)
L(t)
bestimmt werden kann. Hier ist Gl. (9.21) besser geeignet, da tan(ϕ) bei ϕ = π/2 nicht
differenzierbar ist, was in einem Simulationsmodell zu Problemen führen kann.
Für den Betrag FC (t) der Federkraft gilt

FC (t) = c · dL(t) . (9.22)

Die Federkraft stellt die Belastung der Feder durch äußere Kräfte dar. Äußere Kräfte
sind hier die Schnittkräfte Fx1 (t), Fy1 (t), Fx2 (t) und Fy2 (t), die an den beiden Schnitt-
stellen angreifen.
Der Zusammenhang zwischen den Schnittkräften und der Federkraft Fc kann durch
geometrische Anschauung als

Fx1 (t) = −FC (t) cos(ϕ(t)) , (9.23)


Fy1 (t) = −FC (t) sin(ϕ(t)) . (9.24)

hergeleitet werden.

Somit ist das mathematische Modell der Feder vollständig durch die Gl. (9.16)–(9.24)
beschrieben.
212 KAPITEL 9. MODELLIERUNG MECHANISCHER SYSTEME

9.2 Gleichungsstruktur und Analyse

9.2.1 Freiheitsgrade und vollständige Spezifikation der Modell-


gleichungen

Da die Schnittgrößen bei der Modellierung der Teilsysteme zum Teil noch nicht spezi-
fiziert wurden, sind die resultierenden Gleichungssysteme meist unterbestimmt. Durch
Analyse können nun die Freiheitsgrade der Modelle der Teilsysteme sowie des Gesamt-
systems bestimmt und spezifiziert werden.

Im Folgenden soll das Gesamtsystem näher betrachtet werden. Hier werden durch das
Verkoppeln der Schnittgrößen einzelner Teilsysteme weitere Gleichungen spezifiziert.
Die Anzahl der konstruktionsbedingten Freiheitsgrade p sowie die Anzahl der betriebs-
bedingten Freiheitsgrade u und x0 müssen analysiert und die Freiheitsgrade festgelegt
werden.

Beispiel 9.3 (Pendel und Feder: Zusammenfügen der Teilsysteme zu einem Gesamt-
Modell).

Wir zählen nun die differentiellen und algebraischen Gleichungen des Pendelsystems,
sowie die differentiellen Variablen x, die algebraischen Variablen z und die Parameter
p:

xP endel (t) = [ϕ(t), ω(t)]T , (9.25)


T
zP endel (t) = [M (t), x(t), y(t), vx (t), vy (t), Fx (t), Fy (t)] , (9.26)
T
pP endel = [L, m, g, x0 , y0 ] , (9.27)

 
ω(t)
ẋP endel (t) = M (t) , (9.28)
mL2
 
M (t) − Fx (t)L cos(ϕ(t)) − (Fy (t) − mg) sin(ϕ(t))
 x(t) − x0 − L sin(ϕ(t)) 
(9.29)
 
0=
 y(t) − y0 + L sin(ϕ(t)) .

 vx (t) − Lω cos(ϕ(t)) 
vy (t) − Lω sin(ϕ(t))

Das Modell enthält insgesamt neun zeitvariante Größen, wovon zwei den differentiellen
Variablen xP endel und sieben den algebraischen Variablen z zuzuordnen sind. Zudem
enthält das Modell fünf Konstanten pP endel . Es gibt nd = 2 differentielle Gleichungen
sowie na = 5 algebraische Gleichungen.
9.2. GLEICHUNGSSTRUKTUR UND ANALYSE 213

Eine Analyse der Freiheitsgrade des Pendel-Modells ergibt, dass es unterspezifiziert ist:
F GP endel = nd + na − dim(xP endel (t)) − dim(zP endel (t)) = 2 + 5 − 2 − 7 = −2,

(9.30)
d.h. es enthält zwei zeitvariante Variablen mehr als Gleichungen existieren. Falls man
das Pendel einzeln betrachten würde, müsste man zwei der algebraischen Variablen z(t)
als Eingangsgrößen u(t) oder Parameter p festlegen, um ein vollständig spezifiziertes
System zu erhalten.
Das Federmodell enthält keine Differentialgleichungen und keine differentiellen Varia-
blen x(t). Es kann als rein algebraisches Gleichungssystem mit
zF eder (t) = [L(t), dL(t), x1 (t), x2 (t), y1 (t), y2 (t), ϕ(t), (9.31)
T
FC (t), Fx1 (t), Fx2 (t), Fy1 (t), Fy2 (t)] ,
pF eder = [c, L0 ]T , (9.32)
 p 
L(t) − (x2 (t) − x1 (t))2 + (y2 (t) − y1 (t))2

 L(t) − L0 + dL(t) 

sin(ϕ(t)) − y2 (t)−y 1 (t)
 

 L(t) 

0=
 FC (t) − c · dL(t) 
 (9.33)

 F x 1 (t) + F C (t) cos(ϕ) 


 F y 1 (t) + F C (t) sin(ϕ) 

 Fx1 (t) + Fx2 (t) 
Fy1 (t) + Fy2 (t)
dargestellt werden. Nachzählen der skalaren Variablen und Gleichungen ergibt
F GF eder = nd + na − dim(xF eder (t)) − dim(zF eder (t)) = 0 + 8 − 0 − 12 = −4 (9.34)
d.h. die Differenz zwischen der Zahl der Gleichungen und der Zahl der Variablen ist
-4, somit ist das Federmodell ohne Festlegung von Eingangsgrößen u und Parametern
p ebenfalls unterspezifiziert.
Die Verkopplung zwischen Feder und Pendeln durch Drehgelenke entspricht den Glei-
chungen eines einfaches Verknüpfungssystems nach Gln. (9.7) - (9.8). Die Verkopp-
lungsgleichungen sind
  
x1,P 1 (t) − x1,F eder (t) 

 y1,P 1 (t) − y1,F eder (t)  
0=  Fx,P 1 (t) + Fx1,F eder (t)  Pendel 1 ↔ Feder Schnittstelle „1“
 (9.35)

Fx,P 1 (t) + Fx1,F eder (t)

  
x1,P 2 (t) − x2,F eder (t) 

 y1,P 2 (t) − y2,F eder (t)  
0=    Feder Schnittstelle „2“ ↔ Pendel 2, (9.36)
Fx,P 2 (t) + Fx2,F eder (t) 
Fx,P 2 (t) + Fx2,F eder (t)

214 KAPITEL 9. MODELLIERUNG MECHANISCHER SYSTEME

wobei die Subskripte P 1, P 2 und F eder die Zugehörigkeit der jeweiligen Variablen zum
Teilsystem Pendel 1, Pendel 2 oder Feder kennzeichnen. In diesen acht Gleichungen
wurde keine einzige neue Variable eingeführt, d.h. die Gln. (9.35) - (9.36) sind achtfach
überspezifiziert.
Da die beiden Pendelmodelle jeweils um zwei Gleichungen unterspezifiziert sind, das
Federmodell um vier Gleichungen unterspezifiziert ist und die Verkopplungsgleichungen
achtfach überspezifiziert sind, ist das Gesamtsystem vollständig spezifiziert:
F Ggesamt = 2 · F GP endel + 1 · F GF eder + F GV erkopplungen = 0
= 2 · (−2) + 1 · (−4) + 8 (9.37)
=0

Das bedeutet, es müssen keine Eingangsgrößen u festgelegt werden. Das Gesamtsystem


lässt sich nun als semi-explizites DA-System schreiben:
ẋ(t) = f (x(t), z(t), p, t), x(t0 ) = x0 , (9.38)
0 = g(x(t), z(t), p, t). (9.39)

9.2.2 Differentieller Index des Modells


Wie in Kap. 5 beschrieben, können Modelle einen differentiellen Index > 1 aufweisen,
wenn die algebraischen Gleichungen nicht komplett invertierbar sind. Für größere me-
chanische Modelle ist dies oft der Fall, wenn z.B. Flieh-, Seil- oder sonstige Reaktions-
kräfte nur über Bewegungsgrößen berechnet werden, die ihrerseits nur über Ableitung
berechnet werden.
Beispielsweise gelte für einen Körper der Impulssatz mẍ(t) = F (t), während er sich auf
einer in der Simulation vorgeschriebenen Bahnkurve xR (t) bewege: Zur Berechnung der
Kraft F (t) muss die Bahngleichung x(t) = xR (t) zweimal abgeleitet werden.
Modelle von mechanischen Systemen haben meist einen differentiellen Index von 3. Bei
der Spezifizierung der Anfangswerte x0 muss nun ein konsistenter Satz von Anfangs-
werten ausgewählt werden.
Beispiel 9.4 (Pendelmodell mit differentiellem Index > 1). Ein einfaches Beispiel ist
ein 2-dimensionales Pendel, welches in kartesischen Koordinaten wie folgt beschrieben
wird:
ẋ(t) = vx (t) (9.40)
ẏ(t) = vy (t) (9.41)
x(t)
mv̇x (t) = − F (t) (9.42)
L
y(t)
mv̇y (t) = − F (t) + mg (9.43)
L
x2 (t) + y 2 (t) = L2 , (9.44)
9.3. IMPLEMENTIERUNG UND SIMULATION 215

wobei Gl. (9.44) die Bedingung wiedergibt, dass das Pendel sich nur auf einer Kreis-
bahn mit Radius L bewegen kann. Die Kraft F (t) ist nun eine algebraische Variable, die
lediglich in den Differentialgleichungen (9.42) und (9.43) vorkommt. Um aus den gege-
benen Variablen die Ableitung Ḟ (t) zu berechnen, muss Gl. (9.44) mehrfach abgeleitet
werden. Es kann gezeigt werden, dass der Index auch dieses Systems 3 ist. Das bedeutet
es dürfen nicht alle der 4 Anfangswerte x0 , y0 , vx,0 , vy,0 frei vorgegeben werden.

Wie allerdings schon in Beispiel 4.2 gezeigt, ist es problemlos möglich, ein Modell des
Pendels mit Index 1 aufzustellen, wenn z.B. Polarkoordinaten benutzt werden. Dies
zeigt, dass der Index eines Systems direkt durch die Wahl der Modellierung beeinflusst
werden kann.

9.3 Implementierung und Simulation


Die größten Schwierigkeiten bei der Umsetzung eines mechanischen Modells in Modelica
sind die Implementierung der Verknüpfungsgleichungen, sowie wie allgemein in der
Modellbildung die Fehlersuche bei falschem physikalischem Verhalten des modellierten
Systems.
Die Gln. (9.7) - (9.8) sind formal identisch mit den Kirchhoff’schen Knotengleichun-
gen, die elektrische Ströme und Potentiale an einer Verbindungsstelle beschreiben. Da
diese Verknüpfungen häufig auftreten, enthält die Modellierungssprache Modelica zur
Beschreibung von einfachen Verknüpfungen das Konzept des Konnektors.
Grundsätzlich können mechanische Modelle in Modelica völlig frei erstellt und ver-
knüpft werden, ohne das Konnektor-Konzept zu benutzen. Ein einfaches Beispiel dazu
ist im Anhang A.1 dargestellt. Allerdings fällt das Erstellen und Debuggen komplexer
Modelle leichter, wenn die Teilmodelle nach Modelica-Standard unter Verwendung der
Konnektoren erstellt werden.
Eine ausführliche Erläuterung der Modelica-MultiBody Modellbibliothek, die in den
Übungen zur Simulationstechnik verwendet wird, findet sich bei Fritzson (2004), Ka-
pitel 14.8, mit detaillierten Beispielen in Kap. 15.

Abel, D. (1990). Petri-Netze für Ingenieure. Modellbildung und Analyse diskret gesteu-
erter Systeme. Springer.

Bahill, A.T. und B. Gissing (1998). Re-evaluating systems engineering concepts using
systems thinking. IEEE Transactions on Systems, Man, and Cybernetics, Part C:
Applications and Reviews 28(4), S. 516 –527.
216 KAPITEL 9. MODELLIERUNG MECHANISCHER SYSTEME

Bard, Y. (1974). Nonlinear Parameter Estimation. Academic Press New York.

Brenan, K.E., S.L. Campbell und L.R. Petzold (1996). Numerical Solution of Initial
Value Problems in Differential-Algebraic Equations. SIAM. Philadelphia, PA.

Bruns, M. (1991). Systemtechnik. Methoden zur interdisziplinären Systementwicklung.


Springer. Berlin.

Bunge, M. (1977). Treatise on Basic Philosophy. Vol. 3: Ontology I: The Furniture of


the World. D. Riedel. Dordrecht.

Bunge, M. (1979). Treatise on Basic Philosophy. Vol. 4: Ontology II: A World of Sys-
tems. D. Riedel. Dordrecht.

Cassandras, C.G. und S. Lafortune (1999). Introduction to Discrete Event Systems.


Kluwer.

Dahmen, W. und A. Reusken (2008). Numerik für Ingenieure und Naturwissenschaftler.


Springer.

David, R. und H. Alla (2005). Discrete, Continuous, and Hybrid Petri Nets. Springer.

DIN 60617-2 bis -11: Graphische Symbole für Schaltplän (1996). Beuth Verlag.

Diwekar, Urmila M. und Jayant R. Kalagnanam (1997). Efficient sampling technique


for optimization under uncertainty. AIChE Journal 43, S. 440–447.

Föllinger, O. (2008). Regelungstechnik. Hüthig Verlag, Verlagsgruppe Hüthig Jehle


Rehm GmbH, Heidelberg, München, Landsberg, Berlin.

Föllinger, O. und D. Franke (1982). Einführung in die Zustandsbeschreibung dynami-


scher Systeme. R. Oldenbourg. München.

Fritzson, Peter (2004). Principles of Object-Oriented Modeling and Simulation with


Modelica 2.1. IEEE Press. Wiley-Interscience. ISBN: 0-471-47163-1.

Gerdin, M. (2004). Computation of a canonical form for linear differential-algebraic


equations. Proceedings of Reglermöte (Swedish National Conference on Control),
Gothenburg, Sweden.

Gigch, J.P. van (1991). System Design Modeling and Metamodeling. Springer. New
York.

Gilles, E.D., P. Holl und W. Marquardt (1986). Dynamische Simulation komplexer


chemischer Prozesse. Chem. Ing. Tech. 58, S. 268–278.

Griepentrog, E. und R. März (1986). Differential-Algebraic equations and their nume-


rical treatment. Teubner-Texte Mathematik. Leipzig.
9.3. IMPLEMENTIERUNG UND SIMULATION 217

Hangos, K. M. und I. T. Cameron (2001). Process Modelling and Model Analysis.


Academic Press.

Hirsch, Morris W. (2004). Differential equations, dynamical systems and an introduc-


tion to chaos. Elsevier Academic Press.

J.C. Morud, S. Skogestad (1998). Analysis of instability in an industrial ammonia


reactor. AIChE Journal 44, S. 888–895.

Jerri, A.J. (1977). The Shannon sampling theorem — its various extensions and app-
lications: A tutorial review. Proc. IEEE 65, S. 1565–1596.

Jongen, H.Th. (2003). Vorlesungsskript zur Höheren Mathematik. Lehrstuhl C für Ma-
thematik, RWTH-Aachen.

Khalil, Hassan K. (2000). Nonlinear systems. Pearson Education.

Klir, G.J. (1985). Architecture of Systems Problem Solving. Plenum Press. New York.

Kramer, U. und M. Neculau (1998). Simulationstechnik. Fachbuchverlag Leipzig.

Lunze, J. (2006). Ereignisdiskrete Systeme: Modellierung und Analyse dynamischer Sys-


teme mit Automaten, Markovketten und Petrinetzen. Oldenbourg Wissenschafts-
verlag.

Marquardt, W. (2005). Simulationstechnik IV: Modellgestützte Schätzmethoden. Vorle-


sungsmanuskript. AVT-Prozesstechnik, RWTH Aachen.

Marquardt, W. (2010). Modellbildung und Analyse verfahrenstechnischer Prozesse. Vor-


lesungsmanuskript. AVT-Prozesstechnik, RWTH Aachen.

Minsky, M. (1965). Matter, mind and models. In: Proc. IFIP Congress Information
Processing (W.A. Kalenich, Hrsg.). Vol. 1. New York City, Mai 1965. Spartan
Books. Washington. S. 45–49.

Patzak, G. (1982). Systemtechnik - Planung komplexer innovativer Systeme. Springer.


Berlin.

Schlegel, Martin, Wolfgang Marquardt, Rainald Ehrig und Ulrich Nowak (2004). Sen-
sitivity analysis of linearly-implicit differential-algebraic systems by one-step ex-
trapolation. Appl. Numer. Math. 48(1), S. 83–102.

Shannon, C.E. (1998). Communication in the presence of noise. Proc. IEEE (Nach-
druck) 86, S. 447–457.

Shannon, R.E. (1975). Systems Simulation: The Art and Science. Prentice-Hall, Engle-
wood Cliffs, NJ.
218 KAPITEL 9. MODELLIERUNG MECHANISCHER SYSTEME

Simon, H.A. (1981). The Sciences of the Artificial. 2. Auflage. The MIT Press. Cam-
brige, MA.

Stephanopoulos, G., G. Hennig und H. Leone (1990). MODEL.LA. A modeling lan-


guage for processs engineering. Comput. Chem. Engng 14, S. 813–869.

Unbehauen, H. (2007). Regelungstechnik II: Zustandsregelungen, digitale und nichtli-


neare Regelsysteme. 9. Auflage. Friedrich Vieweg & Sohn Verlag.

Unbehauen, R. (1993). Systemtheorie. 6. Auflage. R. Oldenbourg. München.

van der Schaft, A. J. und J. M. Schumacher (1999). An Introduction to Hybrid Dyna-


mical Systems. Springer, Berlin.

VDI-Richtlinie 3633 Blatt 1 (2000). Simulation von Logistik-, Materialfluss- und Pro-
duktionssystemen, Grundlagen. VDI-Handbuch Materialfluss und Fördertechnik,
Band 8. Gründruck, Beuth, Berlin.

Zeigler, B.P. (1984). Multi-facetted Modeling and Discrete Event Simulation. Academic
Press. London.
Kapitel 10

Modellierung thermodynamischer
Systeme

Thermodynamische Systeme gehören zu den wichtigsten Elementen verfahrens- und


energietechnischer Prozesse und sind durch Stoff-, Energie- und Impulstransport ge-
kennzeichnet. Auch für diese Systeme wird zur Problemlösung der allgemeine Simula-
tionsablauf aus Kapitel 1.3 durchlaufen, der in Abbildung 10.1 explizit für thermodyna-
mische Systeme dargestellt ist. Im Arbeitsschritt „Problem verstehen“ muss zunächst
die Funktionsweise des zu simulierenden Systems verstanden werden. Dazu ist eine
Strukturierung bzw. Zerlegung des Systems in funktional getrennte Teilsysteme sinn-
voll, die über Ströme extensiver Größen miteinander verkoppelt sind. Im nachfolgenden
Arbeitsschritt „Modellieren & analysieren“ werden die Modellgleichungen der Teilsyste-
me entsprechend einer systematischen Vorgehensweise hergeleitet. Für jedes elementare
Teilsystem werden Massen- und wenn erforderlich Energiebilanzen aufgestellt. Diese Bi-
lanzgleichungen werden durch weitere Gleichungen z.B. zur Beschreibung von Raten-
oder Zustandsgleichungen erweitert. Anschließend werden die Freiheitsgrade für jedes
Teilsystem analysiert und spezifiert und die Teilsysteme zum Gesamtsystem verkop-
pelt.

Je nach Anwendung können mit Hilfe des Simulationsmodells völlig unterschiedliche


Fragestellungen beantwortet werden. Es sollte jedoch vorher überlegt werden, welchen
Detaillierungsgrad das Modell haben muss, um den betrachteten Aspekt ausreichend
zu beschreiben. Oftmals werden vor dem Bau einer Anlage Simulationsstudien zur
Bestimmung von Stoff- und Energieströmen durchgeführt. Darauf aufbauend kann dann
berechnet werden, wie groß die Anlage ausgelegt werden muss und ob sich das Konzept
aus wirtschaftlicher Sicht lohnt. Außerdem können Regelungskonzepte für die Anlage
entwickelt werden.

219
220 KAPITEL 10. MODELLIERUNG THERMODYNAMISCHER SYSTEME

Model-
System + Problem Ergebn.
lieren & Simulations- Simu- Lösung des
Problem- ver- interpre-
analy- modell lieren Problems
stellung stehen tieren
sieren

Funktion des Systems „Anlage“ verstehen


System in Teilsysteme unterteilen
Verknüpfungen der Teilsysteme beschreiben

Massen- und Energiebilanzen aufstellen


Weitere erforderliche Gleichungen ergänzen

Externe Größen vorgeben (Flüsse,


Umgebungsbedingungen, usw.)
Anfangszustände (Füllstände,
Konzentrationen, usw.) wählen
Modell numerisch lösen

Abbildung 10.1: Simulationsablauf thermodynamischer Systeme

10.1 Strukturierung thermodynamischer Systeme

Dieser Schritt beinhaltet die Abstraktion vom realen System über ein Prinzipbild bis
hin zum abstrakten System mit entsprechenden Schnittgrößen zur Umgebung (vgl.
Abbildung 10.2). Da die betrachteten thermodynamische Systeme sehr groß und kom-
plex sein können, ist der Dekomposition –der Strukturierung des Gesamtsystems in
Teilsysteme– besondere Beachtung zu schenken. Dieser Arbeitsschritt läuft hier oft
über verschiedene Hierarchieebenen bis hin zu elementaren Speicher- und Verknüp-
fungssystemen. Dieses Vorgehen einer hierarschischen Verfeinerung der Struktur ist
Beispielhaft in Abbildung 10.3 dargestellt.

In einem ersten Schritt muss geklärt werden, welche Teilsysteme sinnvoll abgegrenzt
werden können und wie sie mit anderen Teilsystemen wechselwirken. In vielen Fällen
stimmen die elementaren Teilsysteme – also die Teilsysteme für die eine weitere Zerle-
gung nicht zweckmäßig wäre – mit den thermodynamischen Phasen oder Phasengrenz-
flächen überein. Beispiele für elementare Speichersysteme sind die Flüssigphase eines
Reaktors oder die Gas und Flüssigphase in einem Kondensator (vgl. Abbildung 10.3).
Als Beispiel für eine elementares Verknüpfungssystem kann die Phasengrenzfläche in
einem Kondensator zwischen Gas- und Flüssigphase betrachtet werden. Bevor die Mo-
dellgleichungen für die einzelnen elementaren Teilsysteme aufgestellt werden können,
muss auch hier der Abstraktionschritt zur Bestimmung der Schnittgrößen durchlaufen
werden.
10.1. STRUKTURIERUNG THERMODYNAMISCHER SYSTEME 221

Abbildung 10.2: Abstraktion einer realen Anlage über ein Prinzipbild zum abstrakten
System „Anlage“

Abbildung 10.3: Das strukturierte System „Anlage“ und dessen Dekomposition in ele-
mentare Teilsysteme über mehrere Hierarchieebenen.
222 KAPITEL 10. MODELLIERUNG THERMODYNAMISCHER SYSTEME

Jedes Teilsystem kann als Bilanzraum betrachtet werden, bei dessen Definition (dem
„Freischneiden“) Schnittstellen entstehen, über die Schnittgrößen an andere Teilsysteme
übertragen werden. Grundsätzlich unterscheidet man extensive Schnittgrößen, die an
einen Massestrom gebunden sind (z.B. Konzentration), und intensive Schnittgrößen,
die nicht an einen Massestrom gebunden sind (z.B. Wärmestrom). Diese Schnittgrößen
kann man außerdem wie bereits in Kapitel 7.4 geschildert in Fluss- (Massen- und Wär-
meströme) und Potentialvariablen (Temperatur, Druck, usw.) unterteilen. In Modelica
werden für die übergabe dieser Größen Konnektoren verwendet.

Abbildung 10.4: Abstraktion und Dekomposition eines einfachen Rührkesselreaktors:


von der Prinzipskizze zum strukturierten System

Beispiel 10.1 (Einfacher Rührkesselreaktor). Die Dekomposition eines thermodyna-


mischen Systems soll am Beispiel eines kontinuierlich durchflossenen Rührkesselreak-
tors demonstriert werden. Die Abstraktion zu einem abstrakten System „Reaktor“ und
die Dekomposition des Systems „Reaktor“ in geeignete elementare Speichersysteme ist
in Abbildung 10.4 dargestellt. Es ist sinnvoll die thermodynamischen Phasen die vom
Kühlmittel und der Flüssigphase des Reaktorinhalts als Speichersysteme festzulegen,
da diese extensive Größen speichern können. Die Reaktorwand so wie den Rührer
wollen wir als elementare Verknüpfungssysteme betrachten. Diese Wahl beinhaltet ei-
ne bewusst gewählte Vereinfachung (Abstraktion) der Realität, indem die Speicherter-
me dieser Teilsysteme vernachlässigt werden. Die Teilsysteme Rührer, Flüssigphase
und Kühlmittel können über Schnittgrößen mit der Umgebung wechselwirken. Diese
10.1. STRUKTURIERUNG THERMODYNAMISCHER SYSTEME 223

Schnittgrößen haben die Form eines ausgetauschten Massenstroms sowie einer kineti-
schen Energie zum Betrieb des Rührers. Zwischen den einzelnen Teilsystem sind zudem
Flüsse von Wärme und technischer Arbeit als Schnittgrößen zu berücksichtigen.
224 KAPITEL 10. MODELLIERUNG THERMODYNAMISCHER SYSTEME

10.2 Modellierung elementarer Teilsysteme


Für die Modellierung der elementaren Teilsysteme hat sich eine systematische Vorge-
hensweise als zweckmäßig erwiesen, welche auf allgemeingültigen Prinzipien beruht.
Ausgangspunkt ist die Formulierung von Bilanzgleichungen für alle relevanten extensi-
ven Größen des elementaren Teilsystems. In darauf folgenden Arbeitsschritten werden
diese inkrementell um weitere Gleichungen ergänzt. Dieses Vorgehen ist sowohl für
elementare Speichersysteme als auch für Verknüpfungssysteme anwendbar. Bei letzte-
ren werden jedoch anstatt der im folgenden erläuterten allgmeinen Bilanzgleichungen
Oberflächenbilanzen verwendet in welchen kein Speicherterm berücksichtigt wird.

10.2.1 Bilanzgleichungen thermodynamischer Systeme


Die wesentlichen Bilanzgleichungen für die Modellierung von Speichersystemen in ther-
modynamischen Systemen sind Massenbilanzen für die Gesamtmasse und die Massen
einzelner Komponenten, Energiebilanzen und eventuell die Impulsbilanz und Entro-
piebilanz. Sofern zweckmäßig, können Bilanzen für andere extensive Größen aus den
Massenbilanzen hergeleitet werden, wie z.B. Stoffmengenbilanzen.
Wie auch bei der Modellierung anderer physikalischer Systeme, wird zunächst eine
Vorzeichenkonvention eingeführt: alle Schnittgrößen werden als eintretende Ströme an-
genommen. Die eigentliche Flussrichtung wird somit nicht berücksichtigt, sondern erst
anhand der späteren Simulationsergebnisse festgestellt. Demnach haben die in einen
Bilanzraum eintretenden Ströme ein positives Vorzeichen, während die austretenden
Ströme ein negatives Vorzeichen aufweisen.
Zur Beschreibung eines Bilanzraumes führen wir die allgemeine Bilanzgleichung für
eine beliebige an Materie gebundene extensive Größe ψ(t) ein. Beispiele für extensive
Größen sind die Masse [kg], die Stoffmenge [mol] des gesamten Reaktorinhalts oder
einer im Reaktor befindlichen Komponente, sowie die Energie [J]. Für ein Speicher-
system welches über eine Menge an Schnittgrößen ΛJ mit anderen Teilsystemen die
betrachtete extensive Größe austauscht und in der Menge ΛΓ noch näher zu spezifi-
zierenden Prozessen die extensive Größe gebildet oder verbraucht wird, ergibt sich die
allgemeine Bilanzgleichung
dψ X X
= Jjψ (t) + Γψk (t). (10.1)
dt t j∈ΛJ k∈ΛΓ

Hierbei ist J ψ (t) ein über die Grenzen des Bilanzraums tretender Strom. Die Größe
Γψ (t) ist eine Quelle oder Senke der extensiven Größe ψ(t) im Bilanzraum. Sie gibt
die Menge an ψ(t) an, welche pro Zeiteinheit im Bilanzraum verschwindet oder ent-
steht. Beispielsweise handelt es sich um die Menge einer Komponente A, die durch die
Reaktion pro Zeiteinheit im Bilanzraum verbraucht wird.
10.2. MODELLIERUNG ELEMENTARER TEILSYSTEME 225

Die allgemeine Bilanzgleichung 10.1 kann sowohl für Verknüpfungssysteme als auch für
Speichersysteme aufgestellt werden. Für Verknüpfungssysteme ist jedoch zu beachten,
dass für die Änderung der an Materie gebundenen extensiven Größe ψ(t) immer dψdt t
=
0 gilt, da Verknüpfungssysteme keinen Speicher aufweisen.

10.2.1.1 Massenbilanzen

Wird die allgemeine Bilanzgleichung (10.1) auf die Gesamtmassenbilanz angewandt,


ergeben sich folgende Bedeutungen für die Variablen:

ψ(t) Gesamtmasse m [kg]


J ψ (t) Massenstrom J m [kg/s]
Γψ (t) Quelle/Senke Γm [kg/s].

Da die Gesamtmasse nicht vernichtet werden oder entstehen kann (Prinzip der Masse-
nerhaltung), gilt stets Γm (t) = 0. Damit ergibt sich die Gesamtmassenbilanz zu

dm X
= Jjm (t). (10.2)
dt t j∈Λm

Im nächsten Schritt wird die allgemeine Bilanzgleichung (10.1) auf die Massenbilanzen
der einzelnen Komponenten im Bilanzraum angewandt. Dabei wollen wir ein System
mit n verschiedenen Spezies betrachten. Es werden für die verschiedenen Größen aus
der allgemeinen Bilanzgleichung folgende Bedeutungen identifiziert:

ψ(t) Gesamtmasse der Komponente i mi [kg]


J ψ (t) Massenstrom der Komponente i J mi [kg/s]
Γψ (t) Quelle/Senke der Komponente i Γmi [kg/s].

Anders als bei der Gesamtmasse ist bei der Bilanzierung für eine einzelne Komponente
der Quellen-/Senkenterm in der Regel Γmi (t) 6= 0, da Reaktionen die Teilchenzahl einer
Komponente und damit ihre Masse im Bilanzraum verändern können. Daraus ergibt
sich die Stoffmassenbilanz zu
dmi X X
= Jjmi (t) + Γmk (t),
i
i = 1, ..., ns . (10.3)
dt t j∈Λ k∈Λ
J Γ

wobei ΛJ und ΛΓ alle Massenströme bzw. Quellen/Senken umfassen. Die wichtigsten


Quellen- und Senkentherme sind chemische Reaktionen zwischen den Komponenten
A,B,C,... (Edukte) und P,Q,R,... (Produkte), die nach den nr Reaktionsgleichungen
der Form

(−νAr ) A + (−νBr ) B + . . . νP r P + νQr Q + . . . , r = 1, ..., nr


226 KAPITEL 10. MODELLIERUNG THERMODYNAMISCHER SYSTEME

ablaufen. Hierbei ist νir der stöchiometrische Koeffizient der Komponente i in Reaktion
r [-]. Die stöchiometrischen Koeffizienten νi geben an, wie viele Teilchen einer Kom-
ponente pro Formelumsatz reagieren. Sie sind positiv für Produkte und negativ für
Edukte.
Die Bildung bzw. der Verbrauch einer Spezies i in der Reaktion r lässt sich durch das
Einführen einer Reaktionsrate rir (t) beschreiben. Oft wird aus praktischen Gründen
eine normalisierte Reaktionsrate r0r (t) für jede Reaktion r eingeführt, die sich wie
folgt aus den Reaktionsraten der einzelnen Komponenten rir (t), i = 1, ..., n und dem
entsprechenden stöchiometrischen Koeffizienten bestimmen lässt
+ −
rir (t) rir (t) − rir (t)
r0r (t) = = , r = 1, ..., nR . (10.4)
νir νir
Bei reversiblen Reaktionen setzt sich die Reaktionsrate der Komponente rir (t) wieder-
um aus den Reaktionsraten der Hin- (rir +
(t)) und Rückreaktion (rir

(t)) zusammen. Die
Reaktionsraten werden in weiteren Gleichungen näher bestimmt, z. B. dem Arrhenius-
Ansatz.
Mit Hilfe der stöchiometrischen Koeffizienten νir , i = 1, ..., n, r = 1, ..., nr und der
normalisierten Reaktionsrate r0r (t) ergeben sich die Stoffmassenbilanzen zu
nR
dmi X X
= Jjmi (t) + Mi νir r0r (t), i = 1, ..., ns . (10.5)
dt t j∈ΛJ r=1

Hierbei ist Mi die molare Masse der Komponente i [kg/mol]. Die Gesamtmassenbilanz
und die Massenbilanzen der einzelnen Komponenten (Stoffmassenbilanzen) sind linear
abhängig, da die Schließbedingung
n
X
m(t) = mi (t) (10.6)
i=1

gilt. Aus numerischen Gründen sollte man die Gesamtmassenbilanz, die Schließbedin-
gung und (n − 1) Stoffmassenbilanzen wählen.

10.2.1.2 Energiebilanz

Die Gesamtenergie als Erhaltungsgröße innerhalb eines thermodynamischen Systems


tritt in verschiedenen Formen auf und ist wie folgt zusammengesetzt
E(t) = U (t) + K(t) + P (t) . (10.7)
|{z} | {z } |{z}
innere Energie kinetische Energie potentielle Energie

Die einzelnen Energieformen können ineinander umgewandelt werden. Die Gesamten-


ergie bleibt dabei jedoch unverändert. Energie kann also nie erzeugt oder vernichtet
werden, so dass der Quellen/Senken-Term in der allgemeinen Bilanzgleichung entfällt
ΓE (t) = ΓU (t) + ΓK (t) + ΓP (t) = 0. (10.8)
10.2. MODELLIERUNG ELEMENTARER TEILSYSTEME 227

Die weiteren Variablen der allgemeinen Bilanzgleichung (10.1) haben die folgende Be-
deutung:

ψ(t) Gesamtenergie E [J]


J ψ(t) Energiestrom J E [J/s]

Die Energiebilanz lässt sich dann schreiben als


dE X X X
= JjE (t) + JkQ (t) + JlW (t), (10.9)
dt t j∈ΛE k∈ΛQ l∈ΛW

wobei der Summenterm über JjE (t) die Energie beschreibt, die an Masse gebunden über
die Grenzen des Bilanzraums geführt wird. Der zweite Term beschreibt den über die
Bilanzgrenze übertragenen Wärmestrom J Q (t), wobei ΛQ alle Wärme übertragenden
Flächen umfasst. Der letzte Term beschreibt die Arbeit, die am System verrichtet wird.
Für viele thermodynamischen Anwendungen sind die potentielle und die kinetische
Energie viel kleiner als die innere Energie (U (t) >> K(t) und U (t) >> P (t)). Wenn
E(t) ≈ U (t), dE/dt|t ≈ dU/dt|t und J E (t) ≈ J u (t) gilt, erhält man insgesamt
V olumenarbeit
innere Energie V erschiebearbeit }| { z
dU X z }| { z }| { X Q dV X
= ( JjU (t) + pj (t)v j (t)Aj ) + Jk (t) −p(t) + JlW tech (t)
dt t j∈ΛH
| {z } k∈Λ dt t l∈Λ
Q
JjH (t):=JjU (t)+pJjV (t) | W tech {z }
technische Arbeit
X X X dV
= JjH (t) + JkQ (t) + JlW tech (t) − p(t) .
j∈ΛH k∈ΛQ l∈ΛW tech
dt t

Aus der Definition der Enthalpie H(t) = U (t) + p(t)V (t) bzw. dH/dt|t = dU/dt|t +
p(t) dV /dt|t + V (t) dp/dt|t folgt für konstanten Druck (dp/dt|t = 0)
dH X X X
= JjH (t) + JkQ (t) + JlW tech (t). (10.10)
dt t j∈ΛH k∈ΛQ l∈ΛW tech

10.2.2 Weitere Gleichungen


Die Zustandsgleichungen, die durch die Anwendung der allgemeinen Bilanzgleichung
auf Massen- und Energiebilanz hergeleitet werden, werden durch weitere Gleichungen
ergänzt, um alle vorkommenden Variablen zu bestimmen. Im Allgemeinen können die
weiteren Gleichungen drei Kategorien zugeordnet werden:

1. Definitionen, z.B.:
mi = gi m, mit dem Massenbruch gi
U = mu(p, T, g1 , . . . gnc −1 ), Zusammenhang extensiver und intensiver Größen
228 KAPITEL 10. MODELLIERUNG THERMODYNAMISCHER SYSTEME

2. Ratengleichungen, z.B.:
J Q = αA(T1 − T2 ), Wärmestrom
−E Q |ϑ | −E Q |ϑ |
r0j = V k0 e RT i∈Λ+ ci ij − V k0 e RT i∈Λ− ci ij , Reaktionsrate
3. Zustandsgleichungen, z.B.:
pV = RnT , Idealgas
H = mcp (T − T0 ), Enthalpie
Beispiel 10.2 (Einfacher Rührkesselreaktor - Modellierung der Flüssigphase). Das
Aufstellen von Gleichungen eines Teilsystems soll anhand eines einfachen Beispiels
demonstriert werden. Dazu wird das Speichersystem „Flüssigphase“ des Rührkesselre-
aktors in Abbildung 10.4 betrachtet, welches bereits im vorhergehenden Arbeitsschritt
„Problem verstehen“ als elementares Teilsystem identifiziert wurde (vgl. Beispiel 10.2).
Die Flüssigphase hat einen Ein- (1) und einen Ausgangsstrom (2). Weitere Schnittgrö-
ßen sind der Wärmestrom J Q sowie vom Rührer übertragene technische Arbeit J W tech .
Gemäß der Vorzeichenkonvention werden für die Modellierung alle vier Schnittgrößen
als in den Bilanzraum eintretende Ströme angenommen. Der Reaktor kann als ideal
durchmischt angenommen werden. Es läuft die einfache reversible Reaktion
A P
ab.
Die Bilanzgleichungen für das System „Flüssigphase“ sehen unter diesen Annahmen
wie folgt aus
dm
= J1m (t) + J2m (t),
dt t
dmA
= J1mA (t) + J2mA (t) − MA r01 (t),
dt t
dmp
= J2mP (t) + MB r01 (t),
dt t
dH
= J1H (t) + J2H (t) + J Q (t) + J W (t).
dt t

Für diese Reaktion ergeben sich folgende stöchiometrische Koeffizienten und Reaktions-
raten:
rA,1 (t) rP,1 (t)
r01 (t) = =
νA,1 νP,1
rA,1 (t) rP,1 (t)
= = .
−1 1

Die Bilanzgleichungen werden nun durch weitere Gleichungen ergänzt. Diese können für
das System „Flüssigphase“ unterteilt werden in Definitionen für die Stoffmengenströme,
die Konzentrationen und die Enthalpien sowie Ratengleichungen.
10.3. DARSTELLUNG UND ANALYSE THERMODYNAMISCHER SYSTEME229

Wenn anstatt der Massenbilanzgleichung der Komponente P die Schließbedingung ge-


wählt wird, erhält man das mathematische Modell des Teilsystems

dm
= J1m (t) + J2m (t),
dt t
dmA
= J1mA (t) + J2mA (t) − MA r01 (t),
dt t
dH
= J1H (t) + J2H (t) + J Q (t) + J W (t),
dt t
0 = m(t) − mA (t) − mP (t),

0 = J1mA (t) − J1m (t),


J2mA (t) mA (t)
0= − ,
J2m (t) m(t)
−E −E
0 = r01 (t) − k + V (t)e RT (t) cA (t) + k − V (t)e RT (t) cP (t),
mA (t)
0 = cA (t) − ,
MA V (t)
mP (t)
0 = cP (t) − ,
MP V (t)
0 = m(t) − ρ(t)V (t),
mA (t) mP (t)
0 = ρ(t) − ĥ(T (t), , ),
m(t) m(t)
0 = J2H (t) − J2m (t)h(t),
0 = H(t) − h(t)m(t),
mA (t) mP (t)
0 = h(t) − h̃(T (t), , ).
m(t) m(t)

Nachdem das mathematische Modell der Flüssigphase des Rührkesselreaktors hergelei-


tet wurde, müssen noch die Freiheitsgrade analysiert und spezifziert werden. Diese wird
im nachfolgenden Kapitel 10.3 erläutert.

10.3 Darstellung und Analyse thermodynamischer


Systeme

Die Gleichungen der Thermodynamik erscheinen kompliziert, lassen sich aber immer
unter der Annahme dp/dt|t = 0 als nichtlineares DA-System in folgender Form
schreiben (vlg. Kapitel 5.1):
230 KAPITEL 10. MODELLIERUNG THERMODYNAMISCHER SYSTEME

dx
= f (x(t), z(t), u(t), p, t), x(t0 ) = x0 , (10.11)
dt t
0 = g(x(t), z(t), u(t), p, t). (10.12)
Dabei sind x(t) differentielle und z(t) algebraische Variablen, sowie u(t) Eingangsgrö-
ßen und p Parameter. Diese Darstellung kann sowohl für jedes einzelne (elementare)
Teilsystem als auch für das Gesamtsystem hergeleitet werden.
Um das mathematische Modell in die angegebene Form zu bringen, muss die Anzahl
der konstruktionsbedingten Freiheitsgrade p sowie die Anzahl der betriebsbedingten
Freiheitsgrade u(t) und x0 analysiert und die Freiheitsgrade in einem nächsten Schritt
festgelegt werden. Ziel ist es ein vollständig spezifiziertes mathematisches Modell zu
erhalten, bei dem die Anzahl der Differentialgleichungen und algebraischen Gleichungen
mit der Anzahl der differentiellen Variablen x(t) und den algebraischen Variablen y(t)
übereinstimmen.
Analyse der Freiheitsgrade: Hierzu wird zunächst die Anzahl der Differentialglei-
chungen und der algebraischen Gleichungen ermittelt. Bei Verwendung der in Kapitel
10.2.1 beschriebenen Vorgehensweise zur Modellierung thermodynamischer Systeme er-
halten wir für ein System mit n Komponenten insgesamt n + 1 Differentialgleichungen,
die sich aus der Gesamtmassenbilanz, n − 1 Stoffmassenbilanzen und der Energiebi-
lanz zusammensetzen. Falls für ein gegebenes System keine Energiebilanz aufgestellt
werden muss, ergeben sich n Differentialgleichungen. Die na algebraischen Gleichungen
umfassen die Schließbedingung sowie alle weiteren Gleichungen. Hieraus kann die An-
zahl der differentiellen und algebraischen Variablen, x(t) und z(t), ermittelt werden,
da die Anzahl der differentiellen Variablen x(t) immer mit der Anzahl der Differenti-
algleichungen und die Anzahl der algebraischen Variablen z(t) immer mit der Anzahl
der algebraischen Gleichungen übereinstimmt:
n = dim(x(t))
na = dim(z(t)).
Um die Anzahl der Freiheitsgrade u und p zu ermitteln, bestimmen wir zunächst die
Anzahl aller Konstanten K (molare Massen, Reaktionskonstanten, ...), die Anzahl der
differentiellen Variablen x(t) und die Anzahl aller weiteren Variablen w(t) (Flüsse,
Quellen, Senken, Druck, Temperatur,... ), die im mathematischen Modell enthalten
sind. Die Anzahl der Freiheitsgrade ergibt sich dann aus:
dim(d(t)) = dim(u(t)) + dim(p(t)) = dim(K) + dim(x(t)) + dim(w(t)) − n − na .
Es müssen also dim(d(t)) Freiheitsgrade festgelegt werden, damit das mathematische
Modell vollständig spezifiziert ist.
Festlegung der Freiheitsgrade: Die differentiellen Variablen x(t) sind bereits durch
die in Kapitel 10.2.1 eingeführten Bilanzgleichungen fest zugewiesen und setzen sich aus
10.3. DARSTELLUNG UND ANALYSE THERMODYNAMISCHER SYSTEME231

der Gesamtmasse m, den n − 1 Stoffmassen mi und gegebenenfalls der Enthalpie H(t)


zusammen. Die Anzahl der differentiellen Variablen x(t) stimmt hierbei immer mit der
Anzahl der Differentialgleichungen überein. Das bedeutet also, dass die Freiheitsgrade
u(t) und p nicht aus der Menge der differentiellen Variablen x(t) gewählt werden.
Alle algebraischen Variablen z(t) und alle Eingangsgrößen u(t) werden aus der Menge
der weiteren Variablen w(t) gewählt. Hierbei ist zu beachten, dass die Eingangsgröße
u(t) zumeist Schnittgrößen zu anderen Teilsystemen und zur Umgebung enthält. Die
Parameter p setzen sich aus allen Konstanten K sowie einem Teil der Variablen w(t)
zusammen, die konstruktionsbedingt festgelegt sind, wie beispielsweise das Reaktorvo-
lumen. Nach Festlegung der Freiheitsgrade muss gelten, dass:

dim(d(t)) = dim(u(t)) + dim(p) und


dim(z(t)) = na .

Nun wenden wir uns den Anfangswerten x0 zu. Bei Verwendung der beschriebenen Vor-
gehensweise zur Modellierung thermodynamischer Systeme erhalten wir in den meisten
Fällen ein DA-System mit einem differentiellen Index von eins. Das bedeutet, dass ins-
gesamt dim(x(t)) Anfangswerte x0 spezifiziert werden müssen. Es ist jedoch zu beach-
ten, dass durch die Verkopplung einzelner Teilsysteme oder durch Modellierungsannah-
men innerhalb einzelner Teilsysteme (z.B. Gleichgewichtsreaktionen) ein differentieller
Index größer eins auftreten kann. In diesem Fall sind konsistente Anfangswerte x0
gemäß Kapitel 5.3 zu spezifizieren.

Beispiel 10.3 (Einfacher Rührkesselreaktor - Modellierung der Flüssigphase, Fortset-


zung Beispiel 10.2). Auch die mathematischen Gleichungen der Flüssigphase des ein-
fachen Rührkesselreaktors bechreiben ein nichtlineares differential-algebraisches System
der Form
dx
= f (x(t), z(t), u(t), p, t), = A(p)z(t) + B(p)u(t), x(t0 ) = x0 ,
dt t
0 = g(x(t), z(t), u(t), p, t).

Es besteht aus 3 Differentialgleichungen und 11 algebraischen Gleichungen. Differenti-


elle Variablen sind die Gesamtmasse m, die Stoffmasse mA und die Enthalpie H. Das
DA-System enthält insgesamt 6 Konstanten und 16 weitere Variablen. Das bedeutet es
müssen insgesamt 11 Freiheitsgrade spezifiziert werden, da:

dim(d(t)) = dim(K) + dim(x(t)) + dim(w(t)) − n − na


= 6 + 3 + 16 − 3 − 11
= 11
232 KAPITEL 10. MODELLIERUNG THERMODYNAMISCHER SYSTEME

gilt. Die 11 Freiheitsgrade p und u(t) werden so gewählt, dass p alle 6 Konstanten und
u(t) 5 Schnittgrößen enthält. Somit ist:
 
mP (t)

 J1mA (t) 

 J2mA (t)   
  E
J1m (t)
 
 r01 (t) 
  R
J2H (t) J2m (t)
   
m(t)
     
MA
     
x(t) =  mA (t) , z(t) = h(t) , u(t) =  J Q (t)  und p= .
 
MP
     
H(t)

V (t)
  J W (t)   
k+
   
cA (t) J H (t)
| {z }  
| 1{z k−
 
Zustände  
 cP (t) 
Eingangsgrößen
}
| {z }
 
 ρ(t)  P arameter
T (t)
| {z }
algebraische Variablen

Da das System einen Index von 1 hat, müssen insgesamt 3 Anfangswerte (m0 , mA 0
und H0 ) spezifiziert werden.

10.4 Implementierung und Simulation


Thermodynamische Systeme sind sehr vielseitig und deshalb schwer standardisierbar.
Wenn man die Modellierung selbstständig durchführt, kann man gleichungsbasierte
Programme wie Modelica oder Matlab verwenden. Modelica verfügt außerdem über Bi-
bliotheken, z.B. zur Wärme- und Kraftwerkstechnik. Die Thermal und ThermoFluid Bi-
bliotheken, die Teil der Modelica-Standardbibliothek sind, werden bei Fritzson (2004),
Kap. 14.8, ausführlich erläutert. Es sei darauf hingewiesen, dass es gerade für verfah-
renstechnische Anwendungen eine Reihe von Spezialprogrammen wie z.B. ASPEN+
gibt.

Abel, D. (1990). Petri-Netze für Ingenieure. Modellbildung und Analyse diskret gesteu-
erter Systeme. Springer.
Bahill, A.T. und B. Gissing (1998). Re-evaluating systems engineering concepts using
systems thinking. IEEE Transactions on Systems, Man, and Cybernetics, Part C:
Applications and Reviews 28(4), S. 516 –527.
Bard, Y. (1974). Nonlinear Parameter Estimation. Academic Press New York.
Brenan, K.E., S.L. Campbell und L.R. Petzold (1996). Numerical Solution of Initial
Value Problems in Differential-Algebraic Equations. SIAM. Philadelphia, PA.
10.4. IMPLEMENTIERUNG UND SIMULATION 233

Bruns, M. (1991). Systemtechnik. Methoden zur interdisziplinären Systementwicklung.


Springer. Berlin.
Bunge, M. (1977). Treatise on Basic Philosophy. Vol. 3: Ontology I: The Furniture of
the World. D. Riedel. Dordrecht.
Bunge, M. (1979). Treatise on Basic Philosophy. Vol. 4: Ontology II: A World of Sys-
tems. D. Riedel. Dordrecht.
Cassandras, C.G. und S. Lafortune (1999). Introduction to Discrete Event Systems.
Kluwer.
Dahmen, W. und A. Reusken (2008). Numerik für Ingenieure und Naturwissenschaftler.
Springer.
David, R. und H. Alla (2005). Discrete, Continuous, and Hybrid Petri Nets. Springer.
DIN 60617-2 bis -11: Graphische Symbole für Schaltplän (1996). Beuth Verlag.
Diwekar, Urmila M. und Jayant R. Kalagnanam (1997). Efficient sampling technique
for optimization under uncertainty. AIChE Journal 43, S. 440–447.
Föllinger, O. (2008). Regelungstechnik. Hüthig Verlag, Verlagsgruppe Hüthig Jehle
Rehm GmbH, Heidelberg, München, Landsberg, Berlin.
Föllinger, O. und D. Franke (1982). Einführung in die Zustandsbeschreibung dynami-
scher Systeme. R. Oldenbourg. München.
Fritzson, Peter (2004). Principles of Object-Oriented Modeling and Simulation with
Modelica 2.1. IEEE Press. Wiley-Interscience. ISBN: 0-471-47163-1.
Gerdin, M. (2004). Computation of a canonical form for linear differential-algebraic
equations. Proceedings of Reglermöte (Swedish National Conference on Control),
Gothenburg, Sweden.
Gigch, J.P. van (1991). System Design Modeling and Metamodeling. Springer. New
York.
Gilles, E.D., P. Holl und W. Marquardt (1986). Dynamische Simulation komplexer
chemischer Prozesse. Chem. Ing. Tech. 58, S. 268–278.
Griepentrog, E. und R. März (1986). Differential-Algebraic equations and their nume-
rical treatment. Teubner-Texte Mathematik. Leipzig.
Hangos, K. M. und I. T. Cameron (2001). Process Modelling and Model Analysis.
Academic Press.
Hirsch, Morris W. (2004). Differential equations, dynamical systems and an introduc-
tion to chaos. Elsevier Academic Press.
234 KAPITEL 10. MODELLIERUNG THERMODYNAMISCHER SYSTEME

J.C. Morud, S. Skogestad (1998). Analysis of instability in an industrial ammonia


reactor. AIChE Journal 44, S. 888–895.

Jerri, A.J. (1977). The Shannon sampling theorem — its various extensions and app-
lications: A tutorial review. Proc. IEEE 65, S. 1565–1596.

Jongen, H.Th. (2003). Vorlesungsskript zur Höheren Mathematik. Lehrstuhl C für Ma-
thematik, RWTH-Aachen.

Khalil, Hassan K. (2000). Nonlinear systems. Pearson Education.

Klir, G.J. (1985). Architecture of Systems Problem Solving. Plenum Press. New York.

Kramer, U. und M. Neculau (1998). Simulationstechnik. Fachbuchverlag Leipzig.

Lunze, J. (2006). Ereignisdiskrete Systeme: Modellierung und Analyse dynamischer Sys-


teme mit Automaten, Markovketten und Petrinetzen. Oldenbourg Wissenschafts-
verlag.

Marquardt, W. (2005). Simulationstechnik IV: Modellgestützte Schätzmethoden. Vorle-


sungsmanuskript. AVT-Prozesstechnik, RWTH Aachen.

Marquardt, W. (2010). Modellbildung und Analyse verfahrenstechnischer Prozesse. Vor-


lesungsmanuskript. AVT-Prozesstechnik, RWTH Aachen.

Minsky, M. (1965). Matter, mind and models. In: Proc. IFIP Congress Information
Processing (W.A. Kalenich, Hrsg.). Vol. 1. New York City, Mai 1965. Spartan
Books. Washington. S. 45–49.

Patzak, G. (1982). Systemtechnik - Planung komplexer innovativer Systeme. Springer.


Berlin.

Schlegel, Martin, Wolfgang Marquardt, Rainald Ehrig und Ulrich Nowak (2004). Sen-
sitivity analysis of linearly-implicit differential-algebraic systems by one-step ex-
trapolation. Appl. Numer. Math. 48(1), S. 83–102.

Shannon, C.E. (1998). Communication in the presence of noise. Proc. IEEE (Nach-
druck) 86, S. 447–457.

Shannon, R.E. (1975). Systems Simulation: The Art and Science. Prentice-Hall, Engle-
wood Cliffs, NJ.

Simon, H.A. (1981). The Sciences of the Artificial. 2. Auflage. The MIT Press. Cam-
brige, MA.

Stephanopoulos, G., G. Hennig und H. Leone (1990). MODEL.LA. A modeling lan-


guage for processs engineering. Comput. Chem. Engng 14, S. 813–869.
10.4. IMPLEMENTIERUNG UND SIMULATION 235

Unbehauen, H. (2007). Regelungstechnik II: Zustandsregelungen, digitale und nichtli-


neare Regelsysteme. 9. Auflage. Friedrich Vieweg & Sohn Verlag.

Unbehauen, R. (1993). Systemtheorie. 6. Auflage. R. Oldenbourg. München.

van der Schaft, A. J. und J. M. Schumacher (1999). An Introduction to Hybrid Dyna-


mical Systems. Springer, Berlin.

VDI-Richtlinie 3633 Blatt 1 (2000). Simulation von Logistik-, Materialfluss- und Pro-
duktionssystemen, Grundlagen. VDI-Handbuch Materialfluss und Fördertechnik,
Band 8. Gründruck, Beuth, Berlin.

Zeigler, B.P. (1984). Multi-facetted Modeling and Discrete Event Simulation. Academic
Press. London.
236 KAPITEL 10. MODELLIERUNG THERMODYNAMISCHER SYSTEME
Kapitel 11

Parametereinfluss und
Parameterschätzung

Um ein Simulationsmodell zur Beantwortung einer spezifischen Fragestellung einzuset-


zen, muss es das zugrunde liegende reale System mit einer ausreichenden Genauigkeit
abbilden. Das qualitative Maß an Übereinstimmung zwischen dem Verhalten des Mo-
dells und des realen Systems wird als Simulationsgüte bezeichnet. Zur Ermittlung der
Simulationsgüte sollen hier zwei verschiedene Bewertungsverfahren vorgestellt werden.
Zum einen sollen die wichtigsten Konzepte und Methoden der simulationsgestützten
Analyse des Simulationsmodells vorgestellt werden. In diesem Zusammenhang werden
die Grundlagen der stochastischen Simulation sowie der Sensitivitätsanalyse erläutert.
Zum anderen werden die grundlegenden Methoden der Parameteridentifikation und
Modellvalidation mit Hilfe experimenteller Daten vorgestellt. Eine umfassende Dar-
stellung des Themas findet sich beispielsweise in der Monographie von Bard (1974).

11.1 Simulationsgestütze Analyse

Das wiederholte Durchführen von gezielten Simulationsexperimenten, bildet besonders


in der Phase der Modellbildung ein wichtiges Korrektiv, mit dessen Hilfe die Simulati-
onsgüte inkrementell verbessert werden kann. Die einfachste Methode bei einem solchen
Vorgehen ist das Durchführen von Plausibilitätstests. Diese zeichnen sich dadurch aus,
dass sie unabhängig vom Umfang des Vorwissens über das zugrunde liegende technische
System durchgeführt werden können. Solche Plausibilitätstests umfassen beispielsweise
die Überprüfung der Werte der Modellvariablen bezüglich ihrer Konsistenz mit physi-
kalisch sinnvollen Wertebereichen oder die Nachprüfung von Kausalitäts-, Bilanz- oder
Kinematik-Prinzipien (Kramer und Neculau 1998). Beispiele für die erste Art eines
Plausibilitätstests sind negative Füllmengen, (absolute) Drücke oder Konzentrationen.
Beispiele für die zweite Art sind beispielsweise eine nicht geschlossene Massenbilanz, ein

237
238 KAPITEL 11. PARAMETEREINFLUSS UND PARAMETERSCHÄTZUNG

Wärmetransport von einer wärmeren zu einer kälteren Phase oder zwei (starr) gekop-
pelte Punktmassen, die sich (völlig) unabhängig voneinander bewegen. Darüber hinaus
können je nach vorhandenem Vorwissen über das zugrunde liegende System qualita-
tive Verhaltensweisen überprüft werden. Beispielsweise muss der aus einem Brunnen
abfließende Wasserstrom des Wasserspiels umso größer sein, je höher der Füllstand im
Brunnen ist. Wird diese qualitative Systemeigenschaft in einer Simulation nicht richtig
wiedergegeben, liegt sicherlich ein grober Modellierungsfehler vor.
Ein weiteres wichtiges Verfahren für die Beurteilung der Modellgüte ist die Sensitivität
(oder Empfindlichkeit) der Modellprädiktion bezüglich kleiner Änderungen der Werte
der Modellparameter. Vor dem Hintergrund von stets mit Unsicherheiten behafteten
Parameterwerten, ist es leicht nachvollziehbar, dass Simulationsergebnisse umso glaub-
würdiger sind, je unempfindlicher die Modellprädiktion gegenüber kleinen Variationen
in den Parametern ist. In diesem Zusammenhang wird auch von der Robustheit des
Simulationsmodells gesprochen, die sich im Rahmen einer Sensitivitätsanalyse unter-
suchen lässt. Die wesentlichen Grundlagen sollen in Abschnitt 11.2 erläutert werden.
Die Bewertung der Simulationsgüte auf der Grundlage der hier vorgestellten Krite-
rien erfolgt anhand von Simulationsexperimenten, die für spezifische Parameterwerte
durchgeführt werden. Da Simulationsmodelle meist für verschiedene Werte der Parame-
ter anwendbar sein sollen, muss die Empfindlichkeit der Modellvorhersage im gesamten
Definitionsbereich der Parameter betrachtet werden. Für eine solche Analyse des Si-
mulationsmodells über den gesamten Parameterraum hinweg können als Alternative
zur Sensitivitätsanalyse auch sogenannte Monte-Carlo-Methoden verwendet werden.

11.1.1 Monte-Carlo-Methoden

Monte-Carlo-Methoden basieren auf der Durchführung einer großen Anzahl von Si-
mulationsexperimenten mit Hilfe von zufällig gewählten Eingangsdaten. Sie werden in
verschiedenster Form und für verschiedenste Zwecke eingesetzt. In dem hier dargestell-
ten Bereich der simulationsgestützten Analyse wird unter dem Begriff der Monte-Carlo-
Simulation ein wiederholtes Durchführen von Simulationsexperimenten verstanden, bei
denen die Parameterwerte innerhalb eines definierten Parameterraumes zufällig variiert
werden.
Dieses Abtasten des Parameterraums kann mit verschiedenen Methoden realisiert wer-
den. Die einfachste Methode ist das sogenannte Random Sampling. Hier werden in einer
Reihe von Simulationsexperimenten für jede neue Simulation die Parameterwerte im
Sinne einer Stichprobe zufällig und unabhängig von einander im interessierenden Pa-
rameterraum ausgewählt. Die ausgewählten Parameterwerte sind gemäß einer vorgege-
benen Wahrscheinlichkeitsverteilung verteilt. Häufig wählt man eine Gleichverteilung,
bei der alle Parameter im interessierenden Intervall mit gleicher Wahrscheinlichkeit
gewählt werden. Eine alternative Methode, deren Anwendung auch bei kleiner Stich-
problenzahl eine gleichmäßigere Verteilung in Aussicht stellt, ist das sogenannte Latin
11.1. SIMULATIONSGESTÜTZE ANALYSE 239

𝑝1 𝑝1

𝑝1,𝑈 𝑝1,𝑈

𝑝1,𝐿 𝑝1,𝐿

𝑝2,𝐿 𝑝2,𝑈 𝑝2 𝑝2,𝐿 𝑝2,𝑈 𝑝2

Abbildung 11.1: Random Sampling (links) und Latin Hypercube Sampling für einen
zweidimensionalen Parameterraum und vier Simulationsexperimente

Hypercube Sampling. Hierbei wird der Parameterraum mit Hilfe eines regelmäßigen
Gitters in Hypercubes aufgeteilt. Im Falle eines zwei- oder dreidimensionalen Parame-
terraums entspricht das Quadraten oder Würfeln, im höherdimensionalen spricht man
von Hyperwürfeln. Wie beim Random Sampling werden für eine Reihe von Simulati-
onsexperimenten Parameterwerte stichprobenartig so ausgewählt, dass innerhalb einer
Zeile und Spalte des Gitters genau ein Parameter gewählt wird. Zur Veranschauli-
chung ist in Abbildung 11.1 beispielhaft die Auswahl von Parameterwerten in einer
vier Simulationsexperimente umfassenden Monte-Carlo-Studie für den Fall eines zwei-
dimensionalen Parameterraumes gezeigt (Diwekar und Kalagnanam 1997).

11.1.2 Sensitivitätsanalyse
Zur Beschreibung der Grundlagen der Sensitivitätsanalyse soll ein System in Zustands-
darstellung der Form
˙ = f (x(t), p, u(t), t),
x(t) (11.1)
y(t) = g(x(t), p, u(t), t), (11.2)
x(t0 ) = x0 (p) (11.3)

betrachtet werden. Falls f die Bedingungen des Satzes von Picard Lindelöf (4.1) erfüllt,
gibt es für fixe u und p eine eindeutige Lösung x(t) und damit auch y(t). Wir schreiben
daher auch x(t; p, u) und y(t; p, u). Falls die Abhängigkeit von t klar ist, wird sie
häufig auch weggelassen. Die Sensitivität syij (p, u) eines Ausgangs yi bezüglich eines
Parameters pj ist definiert als
∂yi (p, u)
syij (p, u) = . (11.4)
∂pj p=p0
240 KAPITEL 11. PARAMETEREINFLUSS UND PARAMETERSCHÄTZUNG

yi
x
x

δ δ

Pj,0 pj

Abbildung 11.2: Approximation der Sensitivität ∂yi


∂pj
aus der Sekantensteigung,
p=p0
mit Stützstellen pj,0 − δ, pj,0 + δ.

Dies entspricht der Änderung des Ausgangs yi nach einer infinitesimalen Änderung
des Parameters pj . Bei einer graphischen Auftragung von yi über pj entspricht die
Sensitivität damit der Tangentensteigung im Punkt p im Parameterraum in Richtung
des Einheitsvektors j. Durch die Approximation dieser Tangentensteigung über die
Steigung einer Sekante durch die Punkte pj = pj,0 + δ und pj = pj,0 − δ, bietet sich eine
einfache Methode zur grafischen Bestimmung der Sensitivität syij . Numerisch entspricht
dies einer Approximation der partiellen Ableitung in Gl. (11.4) durch finite Differenzen
entsprechend

∂yi (p, u) y(p0 + ∆p0j , u) − y(pj − ∆p0j , u)


≈ (11.5)
∂pj p=p0 2δ

1 j np
mit ∆p0j = (0, . . . , δ , . . . , 0 )T . Danach lassen sich Sensitivitäten aus einer Reihe von
Simulationsexperimenten mit variierten Parameterwerten bestimmen.
Für die Analyse der Sensitivitäten aller ny Ausgänge bezüglich aller np Parameter des
Systems lässt sich die Sensitivitätsmatrix
 
∂y1 (p,u) ∂y1 (p,u)
. . .
 ∂p1 p=p0 ∂pnp
p=p0 
y ∂y(p, u) .
. . . .
. (11.6)
S (p, u) = = . . .
 
∂p

p=p0  ∂y (p,u)
ny ∂yny (p,u)

∂p1
... ∂pn
p=p0 p p=p0

aufstellen. An dieser Stelle sei angemerkt, dass sich analog zu den hier dargestellten
Sensitivitäten syij und der Sensitivitätsmatrix S y der Ausgänge y auch die Sensitivitä-
ten sxkj und die Sensitivitätsmatrix S x der Zustände x definieren lassen. Zur numeri-
schen Berechnung der Sensitivitätsmatrizen kann alternativ zu der oben dargestellten
Verwendung finiter Differenzen auf die sogenannte Sensitivitätsgleichungen zurückge-
griffen werden. Diese ergeben sich durch das Ableiten der Modellgleichungen nach den
Parametern. Danach ergibt sich mit der Kettenregel und da u unabhängig von p ist
11.2. VALIDIERUNG UND PARAMETERIDENTIFIKATION 241

über
∂ ẋ(p, u) ∂f (x, p, u) ∂f (x, p, u) ∂x(p, u) ∂f (x, p, u)
= = + (11.7)
∂p ∂p ∂x ∂p ∂p
| {z } | {z }
Ṡ x Sx

∂y(p, u) ∂g(x, p, u) ∂g(x, p, u) ∂x(p, u) ∂g(x, p, u)


= = + (11.8)
∂p ∂p ∂x ∂p ∂p
| {z } | {z }
Sy Sx

das System der Sensitivitätsgleichungen zu


∂f (x, p, u) x ∂f (x, p, u)
Ṡ x = S + (11.9)
∂x ∂p
∂g(x, p, u) x ∂g(x, p, u)
Sy = S + (11.10)
∂x ∂p
∂x0
S x (t0 ) = . (11.11)
∂p p

Es handelt sich dabei um zwei Matrizendifferentialgleichungen, die sich elementweise


in nx · np skalare Differentialgleichungen mit entsprechenden Anfangsbedingungen und
ny · np algebraische Gleichungen auflösen lassen. Diese Sensitivitätsgleichungen lassen
sich händisch erstellen und in einem Simulator lösen. Effizientere Methoden sind be-
kannt (z.B Schlegel et al. (2004) u.a.), um die Sensitivitätsgleichungen zusammen mit
den Zustandsgleichungen zu lösen, stehen aber nur in wenigen Simulationswerkzeugen
zur Verfügung.

11.2 Parameteridentifikation
Die Validierung eines Simulationsmodells adressiert die Frage ob das Modell die Reali-
tät ausreichend genau abbilden kann. Diese Aufgabenstellung leuchtet sofort ein, kann
aber grundsätzlich nicht bearbeitet werden (Popper, ...). Vielmehr muss versucht wer-
den, ein Modell durch experimentelle Analysen zu falsifizieren, also Abweichungen des
Modells von der Realität in einem konkreten Experiment festzustellen. Wenn man
(trotz redlicher Bemühungen) keine solchen Experimente finden kann, geht man von
einem validen Modell aus. Wir wollen hier nicht auf Möglichkeiten und Grenzen der
Modellvalidierung eingehen, sondern lediglich einen Aspekt, nämlich die Übereinstim-
mung der Prädiktion der Ausgänge y(tk , p, u(tk )) von verfügbaren Messwerten ỹk zu
ausgewählten Zeitpunkten tk (vgl. Abbildung 11.3). Um diese Abweichung quantitativ
zu erfassen, wird die Vorhersage eines Simulationsmodells mit ny Ausgängen und np
Parametern an den Zeitpunkten tk k = 1, ..., nt , mit den Messdaten verglichen. Somit
ergibt sich für den Vorhersagefehler des Modells
i (tk , p, u(tk )) = yi (tk , p, u(tk )) − ỹi,k i = 1, ..., ny . (11.12)
242 KAPITEL 11. PARAMETEREINFLUSS UND PARAMETERSCHÄTZUNG

Simulationsmodell
y (tk , p, u )
u ( tk ) , p ε (tk , p, u )
y k (t k )
reales System

Abbildung 11.3: Vergleich der Modellprädiktion mit Messdaten des realen Systems

Durch Quadrieren und eine Summation über alle Ausgänge yi und Messpunkte tk ergibt
sich daraus das Gütemaß der Fehlerquadratsumme
ny
nt X
X
J(p) = (yi (tk , p, u(tk )) − ỹi,k )2 . (11.13)
k=1 i=1

Diese Größen hängen - eine gebene Struktur des Simulationsmodells vorausgesetzt -


maßgeblich von den gewählten Werten der Modellparameter ab. Um einen minimalen
Vorhersagefehler zu erhalten, wird das folgende Parameterschätzproblem formuliert: Es
gilt die Parameterwerte p1 , ...pnp zu identifizieren, die das Gütemaß J(p) minimieren:
ny
nt X
X
min (yi (tk , p, u(tk )) − ỹi,k )2 . (11.14)
p
k=1 i=1

Dabei muss das Minimum der notwendigen Bedingung

dJ !
=0 (11.15)
dp p

genügen aus der sich die Parameterwerte ermitteln lassen, die eine möglichst gute Wie-
dergabe der Messdaten erlauben. Die Lösung dieses Optimierungsproblems ist in der
Regel nicht trivial und erfordert einen iterativen numerischen Algorithmus zur Bestim-
mung der optimalen Parameterwerte. Eine Komplikation entsteht dadurch, dass die
Modellvorhersagen yi (tk , p, u(tk )) auch Lösungen eines dynamischen Modells sein kön-
nen. In diesem Fall muss für die Auswertung der Fehlerquadratsumme (11.14) ein dy-
namisches Modell (beispielsweise durch Simulation der Gln. 11.1-11.3 numerisch für ein
gegebenes p gelöst werden. Die numerische Auswertung der Ableitungen in Gl. (11.15)
erfordert neben der Anwendung der Kettenregel die Lösung der Sensitivitätsgleichun-
gen (11.9-11.11). Detailliertere Ausführungen finden sich in der Vorlesung „Angewandte
Numerische Optimierung“.
Eine Klasse von Systemen, bei denen das sich ergebende Parameterschätzproblem ana-
11.2. VALIDIERUNG UND PARAMETERIDENTIFIKATION 243

lytisch gelöst werden kann, bilden statische Systeme der Form


np
X
y(t) = g(u(t), p) = aj (u(t))pj , y(t), aj (u(t)), u(t) ∈ R, (11.16)
j=1

welche linear in den Parametern sind. Die Koeffizienten aj (u) sind bekannte Funktionen
der Eingänge u(t), die für gegebene u(t) berechnet werden können. In einem solchen
Fall wird das Lösen des Parameterschätzproblems
n
X
min (y(p, u˜k ) − ỹk )2 , (11.17)
p
k=1

mit den experimentellen Daten für die Eingänge ũ1 , ..., ũn und Ausgänge ỹ1 , ..., ỹn , auch
als lineare, multivariate Regression bezeichnet. In Matrix-Vektor-Notation ergibt sich

min (ỹ − Ap)T (ỹ − Ap) (11.18)


p

mit  
a1 (ũ1 ) . . . anp (ũ1 )
A =  ... ..
.
..  .
.  (11.19)

a1 (ũn ) . . . anp (ũn )
Wertet man die notwendige aber nicht hinreichende Bedingung 11.15 für die optimalen
Parameterwerte p∗
− 2AT (ỹ − Ap∗ ) = 0 (11.20)
aus, ergibt sich ein einfaches algebraisches Gleichungssystem. Dies kann für eine regu-
läre Matrix AT A gelöst werden zu
−1
p∗ = A T A AT ỹ. (11.21)

Aus der zweiten Ableitung nach den Parametern folgt

d2 J
= −2AT A (11.22)
dp2 p

Beispiel 11.1 (Parameterwerte eines polynomialen Modells). Wir betrachten ein po-
lynomiales Modell der Form

y(t) = g(u(t), p) = a + bu(t) + cu2 (t) (11.23)

mit den Parametern a, b und c und den experimentellen Eingängen und Ausgängen
   
ũ 0 1 2 3 4 5
= . (11.24)
ỹ 1.98 7.16 16.1 28.9 46.4 66.7
244 KAPITEL 11. PARAMETEREINFLUSS UND PARAMETERSCHÄTZUNG

Nach (11.21) ergeben sich die optimalen Parameterwerte zu


   
a 1.98
p∗ = (AT A)−1 AT ỹ = b = 3.16 (11.25)
c 1.96

mit    
1.98 1 0 0
7.16 1 1 1
   
16.1
 , A = 1 2 4
(11.26)

ỹ = 
28.9 1
.
   3 9
46.4 1 4 16
66.7 1 5 25

Abel, D. (1990). Petri-Netze für Ingenieure. Modellbildung und Analyse diskret gesteu-
erter Systeme. Springer.

Bahill, A.T. und B. Gissing (1998). Re-evaluating systems engineering concepts using
systems thinking. IEEE Transactions on Systems, Man, and Cybernetics, Part C:
Applications and Reviews 28(4), S. 516 –527.

Bard, Y. (1974). Nonlinear Parameter Estimation. Academic Press New York.

Brenan, K.E., S.L. Campbell und L.R. Petzold (1996). Numerical Solution of Initial
Value Problems in Differential-Algebraic Equations. SIAM. Philadelphia, PA.

Bruns, M. (1991). Systemtechnik. Methoden zur interdisziplinären Systementwicklung.


Springer. Berlin.

Bunge, M. (1977). Treatise on Basic Philosophy. Vol. 3: Ontology I: The Furniture of


the World. D. Riedel. Dordrecht.

Bunge, M. (1979). Treatise on Basic Philosophy. Vol. 4: Ontology II: A World of Sys-
tems. D. Riedel. Dordrecht.

Cassandras, C.G. und S. Lafortune (1999). Introduction to Discrete Event Systems.


Kluwer.

Dahmen, W. und A. Reusken (2008). Numerik für Ingenieure und Naturwissenschaftler.


Springer.

David, R. und H. Alla (2005). Discrete, Continuous, and Hybrid Petri Nets. Springer.

DIN 60617-2 bis -11: Graphische Symbole für Schaltplän (1996). Beuth Verlag.
11.2. VALIDIERUNG UND PARAMETERIDENTIFIKATION 245

Diwekar, Urmila M. und Jayant R. Kalagnanam (1997). Efficient sampling technique


for optimization under uncertainty. AIChE Journal 43, S. 440–447.
Föllinger, O. (2008). Regelungstechnik. Hüthig Verlag, Verlagsgruppe Hüthig Jehle
Rehm GmbH, Heidelberg, München, Landsberg, Berlin.
Föllinger, O. und D. Franke (1982). Einführung in die Zustandsbeschreibung dynami-
scher Systeme. R. Oldenbourg. München.
Fritzson, Peter (2004). Principles of Object-Oriented Modeling and Simulation with
Modelica 2.1. IEEE Press. Wiley-Interscience. ISBN: 0-471-47163-1.
Gerdin, M. (2004). Computation of a canonical form for linear differential-algebraic
equations. Proceedings of Reglermöte (Swedish National Conference on Control),
Gothenburg, Sweden.
Gigch, J.P. van (1991). System Design Modeling and Metamodeling. Springer. New
York.
Gilles, E.D., P. Holl und W. Marquardt (1986). Dynamische Simulation komplexer
chemischer Prozesse. Chem. Ing. Tech. 58, S. 268–278.
Griepentrog, E. und R. März (1986). Differential-Algebraic equations and their nume-
rical treatment. Teubner-Texte Mathematik. Leipzig.
Hangos, K. M. und I. T. Cameron (2001). Process Modelling and Model Analysis.
Academic Press.
Hirsch, Morris W. (2004). Differential equations, dynamical systems and an introduc-
tion to chaos. Elsevier Academic Press.
J.C. Morud, S. Skogestad (1998). Analysis of instability in an industrial ammonia
reactor. AIChE Journal 44, S. 888–895.
Jerri, A.J. (1977). The Shannon sampling theorem — its various extensions and app-
lications: A tutorial review. Proc. IEEE 65, S. 1565–1596.
Jongen, H.Th. (2003). Vorlesungsskript zur Höheren Mathematik. Lehrstuhl C für Ma-
thematik, RWTH-Aachen.
Khalil, Hassan K. (2000). Nonlinear systems. Pearson Education.
Klir, G.J. (1985). Architecture of Systems Problem Solving. Plenum Press. New York.
Kramer, U. und M. Neculau (1998). Simulationstechnik. Fachbuchverlag Leipzig.
Lunze, J. (2006). Ereignisdiskrete Systeme: Modellierung und Analyse dynamischer Sys-
teme mit Automaten, Markovketten und Petrinetzen. Oldenbourg Wissenschafts-
verlag.
246 KAPITEL 11. PARAMETEREINFLUSS UND PARAMETERSCHÄTZUNG

Marquardt, W. (2005). Simulationstechnik IV: Modellgestützte Schätzmethoden. Vorle-


sungsmanuskript. AVT-Prozesstechnik, RWTH Aachen.

Marquardt, W. (2010). Modellbildung und Analyse verfahrenstechnischer Prozesse. Vor-


lesungsmanuskript. AVT-Prozesstechnik, RWTH Aachen.

Minsky, M. (1965). Matter, mind and models. In: Proc. IFIP Congress Information
Processing (W.A. Kalenich, Hrsg.). Vol. 1. New York City, Mai 1965. Spartan
Books. Washington. S. 45–49.

Patzak, G. (1982). Systemtechnik - Planung komplexer innovativer Systeme. Springer.


Berlin.

Schlegel, Martin, Wolfgang Marquardt, Rainald Ehrig und Ulrich Nowak (2004). Sen-
sitivity analysis of linearly-implicit differential-algebraic systems by one-step ex-
trapolation. Appl. Numer. Math. 48(1), S. 83–102.

Shannon, C.E. (1998). Communication in the presence of noise. Proc. IEEE (Nach-
druck) 86, S. 447–457.

Shannon, R.E. (1975). Systems Simulation: The Art and Science. Prentice-Hall, Engle-
wood Cliffs, NJ.

Simon, H.A. (1981). The Sciences of the Artificial. 2. Auflage. The MIT Press. Cam-
brige, MA.

Stephanopoulos, G., G. Hennig und H. Leone (1990). MODEL.LA. A modeling lan-


guage for processs engineering. Comput. Chem. Engng 14, S. 813–869.

Unbehauen, H. (2007). Regelungstechnik II: Zustandsregelungen, digitale und nichtli-


neare Regelsysteme. 9. Auflage. Friedrich Vieweg & Sohn Verlag.

Unbehauen, R. (1993). Systemtheorie. 6. Auflage. R. Oldenbourg. München.

van der Schaft, A. J. und J. M. Schumacher (1999). An Introduction to Hybrid Dyna-


mical Systems. Springer, Berlin.

VDI-Richtlinie 3633 Blatt 1 (2000). Simulation von Logistik-, Materialfluss- und Pro-
duktionssystemen, Grundlagen. VDI-Handbuch Materialfluss und Fördertechnik,
Band 8. Gründruck, Beuth, Berlin.

Zeigler, B.P. (1984). Multi-facetted Modeling and Discrete Event Simulation. Academic
Press. London.
Anhang A

Codebeispiele

A.1 Verknüpfung von zwei Modelica-Modellen mit


und ohne Konnektoren
Das folgende Beispiel zeigt, wie Verknüpfungen zwischen Modellen mit und ohne Kon-
nektoren realisiert werden können.

Variante ohne Konnektor


model Teilsystem // ohne Konnektor
parameter Real k =1;
Real u ;
Real x ( start =1) ;
Real y ;
equation
der ( x ) = k * u ;
y = x;
end Teilsystem ;

model Aggregation
Teilsystem S1 ( k =2) ;
Teilsystem S2 ( k =1) ;
parameter Real Eingang =1;
Real Ausgang ;
equation
S1.u = Eingang - S2.y ; // direkte Implementierung von
Verknüpfungsgl.
S2.u = S1.y ; // durch Zugriff auf die Variablen der
Ausgang = S2.y ; // Teilsysteme ( S1.u , S1.y , S2.u und S2.y )
end Aggregation ;

247
248 ANHANG A. CODEBEISPIELE

Variante mit Konnektor


connector Connector
Real p ;
end Connector ;

model TeilsystemKon // mit Konnektoren


parameter Real k =1;
Real x ( start =1) ;
Connector In ;
Connector Out ;
equation
der ( x ) = k * In.p ;
Out.p = x ;
end TeilsystemKon ;

model AggregationKon
TeilsystemKon S1 ( k =2) ;
TeilsystemKon S2 ( k =1) ;
parameter Real Eingang =1;
Real Ausgang ;
equation
connect ( S1.Out , S2.In ) ; // Automatische Erzeugung der
S1.In.p = Eingang - S2.Out.p ; // Verknüpfungsgleichungen
Ausgang = S2.Out.p ;
end AggregationKon ;

A.2 Modell einer Brunnenkaskade


Der folgende Modelica-Quellcode dient zur Simulation einer dreistufigen Brunnenkaska-
de, die beispielsweise in Abschnitt 2.2.1 als Beispiel für ein nichtlineares, zeitinvariantes
System besprochen wird.

model Brunnenkaskade " Modell : Brunnenkaskade "

import Modeli ca.SIuni ts. *;


import M o d e l i c a . C o n s t a n t s . g _ n ;

parameter Area s [3] = {0 .5 , 0 .4 , 0 .3 };


parameter Area A [3] = {2 , 2 , 2};

parameter Length Anfangswerte [3] = {2 , 0 .1 , 0 .1 };


parameter VolumeFlowRate Ko nst an te r_E in ga ng = 1;

Length h [3]( start = Anfangswerte ) ;

VolumeFlowRate q_z ;
VolumeFlowRate q_ein [3];
A.3. FEDER-DÄMPFER-MODELL EINER RADAUFHÄNGUNG 249

VolumeFlowRate q_aus [3];

equation

q_z = K on sta nt er _Ei ng an g ;

q_ein [1] = q_z ;


q_ein [2] = q_aus [1];
q_ein [3] = q_aus [2];

q_aus [1] = s [1] * sqrt (2* g_n * h [1]) ;


q_aus [2] = s [2] * sqrt (2* g_n * h [2]) ;
q_aus [3] = s [3] * sqrt (2* g_n * h [3]) ;

der ( h ) = ( q_ein - q_aus ) . / A ;

end Brunnenkaskade ;

Hinweise zum Code

Mit import werden die Typdeklarationen für Variablen in SI-Einheiten und die Erd-
beschleunigung g_n importiert.
Die Parameter für die Rohrquerschnitte s[i], Tankquerschnitte A[i] sowie die Mas-
senströme des Zulaufs q_z[i], des Eingangs q_ein[i] und des Ausgangs q_aus[i]
sind hier als Vektoren deklariert (für i = 1, ..., n, hier n = 3).
Dementsprechend ist ./ definiert als elementweise Division:

v./w ⇒ vi /wi für i = 1, .., n und v, w ∈ Rn

A.3 Feder-Dämpfer-Modell einer Radaufhängung

model FederDaempfer " Modell : Feder - Daempfer - System "

import Modeli ca.SIuni ts. *;

// Anfangswerte
parameter Real Anfangswerte [2] = (0 ,0) ;

// Modellparameter
parameter T r a n s l a t i o n a l S p r i n g C o n s t a n t c1 = 1 .0 ;
parameter T r a n s l a t i o n a l S p r i n g C o n s t a n t c2 = 10 .0 ;
parameter T r a n s l a t i o n a l S p r i n g C o n s t a n t d1 = 0 .1 ;
parameter T r a n s l a t i o n a l S p r i n g C o n s t a n t d2 = 1 .0 ;
250 ANHANG A. CODEBEISPIELE

parameter Mass m = 1 .0 ;

// Modellstruktur
parameter Real A [2 ,2] = [0 , 1; 1/ m *( - c1 - c2 ) , 1/ m *( - d1 - d2 ) ]
parameter Real B [2 ,2] = [0 , 0; 1/ m * c2 , 1/ m * d2 ];
parameter Real C [1 ,2] = [1 , 0];
parameter Real D [1 ,2] = [0 , 0];

// Variablen
Real x [2]( start = Anfangswerte ) ;
Real u [2];
Real y [1];

equation
// Eingänge
u = {0 , 0};

// Mode llgleich ungen


der ( x ) = A * x + B * u ;
y = C*x + D*u;
end FederDaempfer ;

Dabei wird angenommen, dass der Fahrweg eben ist (u ist konstant 0). Möchte man
nun den interessanteren Fall eines unebenen Fahrwegs simulieren, muss man die Funk-
tion u(t) entsprechend anpassen. Für eine quasi rechteckige Erhebung des Fahrwegs
zwischen der dritten und fünften Sekunde der Simulation um eine Höheneinheit muss
man u wie folgt ändern:

u = if time<3 or time > 5 then


{0,0} else
{1,0};

A.4 Springender Ball in Modelica


Hier wird die Umsetzung des hybriden System aus Kapitel 6.5 gezeigt. Mittels einer
when-Konstruktion wird die Variable velocity mit der um den Rückschnellkoeffizien-
ten c gedämpften und rückwärtsgerichteten Geschwindigkeit reinitialisiert.

model BouncingBall " Simple model of a bouncing ball "


constant Real g = 9 .81 " Gravity " ;
parameter Real c = 0 .7 " Coefficient of restitution " ;
parameter Real radius = 0 .1 " Radius of the ball " ;
Real height ( start =1) " Height of the ball center " ;
Real velocity ( start =0) " Velocity of the ball " ;
equation
der ( height ) = velocity ;
A.4. SPRINGENDER BALL IN MODELICA 251

der ( velocity ) = -g ;
when height <= radius then
reinit ( velocity , -c * pre ( velocity ) ) ;
end when ; Springender Ball - Simulationsergebnisse
end BouncingBall ;

Das Simulationsergebnis ist in Abbildung


Simulation mit A.1 gezeigt.
Dymola

Abbildung A.1: Springender Ball - Simulationsergebnisse mit Dymola


© Lehrstuhl für Prozesstechnik, RWTH Aachen 2007 26
252 ANHANG A. CODEBEISPIELE
Glossar

Aggregation
Zusammenfügung von Teilen zu einem Ganzen.

Aliasing
Aliasing beschreibt den Informationsverlust, der durch unzureichende Abtastung
eines tatsächlich höherfrequenten Signals ein scheinbar niederfrequenteres Signal
vortäuscht.

Anfangsbedingung (AB)
Gleichung, die den Anfangswert x(t0 ) einer Variablen x(t) zum Zeitpunkt t0 , d.h.
zu Beginn einer Simulation, definiert.

Anfangswert
Wert x(t0 ) einer Variablen x zum Zeitpunkt t0 , d.h. zu Beginn einer Simulati-
on. Anfangswerte zählen zu den dynamischen Freiheitsgraden eines Systems und
müssen zur eindeutigen Lösung entsprechend vorgegeben werden. Durch alge-
braische Zwangsbedingungen können u.U. nicht alle Anfangswerte frei gewählt
werden. (Siehe Kapitel 5)

Attraktor
Ein Attraktor ist eine kompakte Untermenge des Zustandsraums U , welche die
Eigenschaften Invarianz, Anziehung und Transitivität aufweist.

Ausgangsgröße
Im systemtheoretischen Sinn sind Ausgangsgrößen Variablen, die nach außen hin
sichtbar sind oder direkt aus verfügbaren Größen berechnet werden können. Häu-
fig sind dies die technisch relevanten Größen eines Systems.

autonome / nicht-autonome Systeme


Als autonome Systeme bezeichnet man Systeme, bei denen die Eingangsgrößen
konstant Null oder gar nicht vorhanden sind. Sie werden nicht durch externe
Eingänge beeinflusst, verhalten sich also autonom.

253
254 Glossar

Bifurkation
Als Bifurkation wird ein parameterabhängiges Systemverhalten bei nichtlinearen
Systemen bezeichnet.

Chaotisches System
Ein chaotisches System ist dadurch gekennzeichnet, dass sein Verhalten sehr stark
von den Anfangswerten abhängt, so dass Vorhersagen über längere Zeit nicht
möglich sind.

differential-algebraisches System
Bezeichnung aller Gleichungssysteme, die sowohl algebraische als auch differen-
tielle Variablen enthalten. Dabei treten nur Ableitungen nach einer einzigen
Größe auf (normalerweise nach der Zeit t). Allgemeinste Form der Darstellung:
0 = F (x(t), ẋ(t), ẍ(t), . . . , z(t), u(t), p, t), mit x(t) als differentiellen Variablen,
z(t) als algebraische (zeitvariante) Variablen, u(t) als Eingangsgrößen und p als
Parameter des Systems.

Eingangsgröße
Jede Größe u eines Systems, deren zeitlicher Verlauf in einer Simulation vorge-
geben ist oder durch externe Einflüsse bestimmt wird, statt durch das System
selbst bestimmt zu werden.

Freiheitsgrade: bauart-, konstruktions- und entwurfsbedingte


Als Freiheitsgrade eines Systems werden diejenigen Größen bezeichnet, deren
Werte zu Beginn oder während einer Simulation frei gewählt werden können.

Grenzzyklus
Ein Grenzzyklus ist eine geschlossene Trajektorie im Phasendiagramm. Für den
Fall, dass es sich bei dem Grenzzyklus um einen Attraktor handelt, laufen um-
liegende Trajektorien auf diesen zu; falls es sich um einen Repellor handelt, von
diesem weg.

Inzidenzmatrix
Die Inzidenzmatrix gibt das Belegungsmuster einer Matrix an, indem die von
Null verschiedenen Einträge der Jacobi-Matrix durch einen Platzhalter × ersetzt
werden. Die Nulleinträge bleiben bestehen.

Jacobi-Matrix
Allgemein sind die Einträge der Jacobi-Matrix durch die ersten partiellen Ablei-
tungen einer differenzierbaren, vektoriellen Funktion f (x) : Rn → Rm gegeben.
Für lineare sowie nichtlineare Systeme ist die Jacobi-Matrix die Matrix der par-
tiellen Ableitungen der Systemgleichungen nach den Variablen.
Glossar 255

Kopplungsgröße
Als Kopplungsgröße bezeichnen wir Größen eines (Teil-)Systems, die direkt ande-
re (Teil-)Systeme beeinflussen, also (Teil-)Systeme verkoppeln. Kopplungsgrößen
treten häufig sowohl als Ausgangsgrößen früher Prozessstufen auf als auch als
Eingangsgrößen nachfolgender Prozessstufen.

Messgröße
Gemessene Zustände eines Systems. Nicht alle Zustände eines Systems können
aus technisch-physikalischen oder mathematischen Gründen gemessen werden.
Messgrößen sind häufig gleichzeitig typische Ausgangsgrößen eines Systems.

negativ-definite Funktion
Eine Funktion V : D → R, wobei x = 0 ⊂ D ⊂ Rnx und D offen sowie
zusammenhängend, ist negativ-definit, wenn gilt, dass V (0) = 0 und V (x) < 0
für alle x ∈ D \ {0}.

Parameter
Physikalische Randbedingungen eines Systems, die über längere Zeiträume kon-
stant sind aber das Systemverhalten beeinflussen. Beispiele sind Apparateabmes-
sungen oder die Erdgravitation.

Phasenporträt
Eine zumeist zweidimensionale Darstellung des zeitlichen Verlaufes von Zustands-
größen in Form eines Diagramms, wobei jeweils einem Zustand eine Koordina-
tenrichtung zugeordnet wird. Für den Fall, dass ein dynamisches System nur
zwei Zustände besitzt, wird ein Zustand auf der x-Achse und der andere auf der
y-Achse aufgetragen.

positiv-definite Funktion
Eine Funktion V : D → R, wobei x = 0 ⊂ D ⊂ Rnx und D offen sowie
zusammenhängend, ist positiv-definit, wenn gilt, dass V (0) = 0 und V (x) > 0
für alle x ∈ D \ {0}.

Quantisierung
Durch Quantisierung wird eine Abbildung eines Wertebereichs auf einen einge-
schränkteren beschrieben.

Repellor
Ein Repellor weist unter negativer Zeitentwicklung die gleichen Eigenschaften wie
ein Attraktor auf.
256 Glossar

seltsamer Attraktor
Der seltsame Attraktor ist ein Attraktor, für den sich quasi-periodisch Lösungen
einstellen, d.h. Trajektorien ähneln sich für große Zeiten, sind jedoch niemals
genau gleich.
semi-definite Funktion
Eine Funktion V : D → R, D ⊂ Rn ist positiv semi-definit, wenn gilt, dass
V (0) = 0 sowie V (x) ≥ 0 für alle x ∈ D und negativ semi-definit, wenn gilt, dass
V (0) = 0 sowie V (x) ≤ 0 für alle x ∈ D.
Separatrix
Eine Separatrix ist eine Trajektorie, die den Zustandsraum in invariante Teilmen-
gen aufteilt.
Speich(t)ergröße / Speichervariable
Zeitvariante Größe eines physikalischen Systems, welche eine Speicherung von
Masse / Energie / Impuls o.ä. beschreibt. Mehrere Speichergrößen können den-
selben Speicher beschreiben, so z.B. Füllstand, Masseninhalt oder hydrostatischer
Druck als Beschreibung der Wassermenge in einem Brunnen. In der Regel ent-
spricht die Anzahl der unabhängigen physikalischen Speicher eines Systems der
Dimension des Zustandsvektors in der Zustandsdarstellung.
stabil
Man bezeichnet ein System als stabil, wenn der zeitliche Verlauf seiner Eingänge,
Zustände und Ausgänge beschränkt ist.

Transiente
Mit Transiente wird ein schneller, impulshafter, elektrischer oder akustischer Ein-
schwingvorgang bezeichnet. Meistens sind das höherfrequente, steile Signale in
Form instationärer Schwingungen. Außerdem bezeichnet eine Transiente das dy-
namische Übergangsverhalten in eine Ruhelage.

zeitvariant
Eine Größe wird als zeitvariant bezeichnet, wenn sich ihr Wert mit der Zeit än-
dert. Die Änderung kann kontinuierlich erfolgen (z.B. bei Größen deren Änderung
direkt oder indirekt durch eine Differentialgleichung beschrieben wird) oder zu
diskreten Zeitpunkten (z.B. schaltende Größen).
zeitvariante Größe
Im Kontext der Simulationstechnik-Vorlesung sind damit (außer bei zeitdiskre-
ten Systemen) immer kontinuierliche Größen gemeint, die Zustandsgrößen oder
algebraische Größen von differentiell-algebraischen Systemen sind. Das Gegenteil
sind zeitinvariante Größen.
Glossar 257

Zustandsdarstellung
Einheitliche Darstellung zur Beschreibung der dynamischen Zusammenhänge
zwischen Eingangsgrößen u(t), Ausgangsgrößen y(t), Parametern p und Zu-
ständen x(t) eines Systems. Sie bestehen aus der differentiellen Systemglei-
chung ẋ(t) = f (x(t), u(t), p, t) und der algebraischen Ausgangsgleichung y(t) =
h(x(t), u(t), p, t).

Zustandsgleichung
Als Zustandsgleichung bezeichnet man den differentiellen Zusammenhang zwi-
schen Zuständen, Eingangsgrößen und Parametern eines dynamischen Systems.

Zustandsgrößen
Die differentiellen Größen eines Systems in Zustandsdarstellung. Sie beschreiben
die zeitliche Veränderung des inneren Zustands eines Systems, z.B. den Verlauf
von Temperatur oder Druck.

Zustandsraum
Der mathematische Raum, der von den Zuständen eines dynamischen Systems
aufgespannt wird. Im zweidimensionalen Fall entspricht eine Darstellung im Zu-
standsraum dem Zeichnen eines Phasenporträts.

Zustandstrajektorie
Der Begriff Zustandstrajektorie oder auch Bahnkurve genannt, bezeichnet den
zeitlichen Verlauf einer Zustandsgröße. Dieser kann auf zwei Arten angegeben
werden: (a) In Form eines Startwertes und eines (Differential-)Gleichungssystems,
welches die zeitliche Änderung der Zustandsgröße aus dem Anfangswert heraus
beschreibt, oder (b) in diskretisierter Form, d.h. als Reihe von diskreten Zeit-
punkten und zugehörigen Werten der Zustandsgröße.
Stichwortverzeichnis

Abstraktion, 23, 220 Bilanzgleichung, 30


Abtastung, 142 Brunnenkaskade, 33, 248
Across-Variable, 182 stationäre, 48
Aggregation, 18, 173 Zerlegung, 174
Aliasing, 143 Brunnenkaskase, 19
Anfangs
-wert, 34, 44, 52 Chaos, siehe chaotisches System
-wert, konsistent, 134
-zustand, 72 Dämpfer
Anfangswerte, 132 -konstante, 39
Aspen Custom Modeler, 177 Dämpfungskoeffizient, siehe Dämpfer-
ASPEN+, 232 konstante, 67
Attraktor, 106 DA-System, 29, 123, 229
Grenzzyklus, 113 Überführung in Zustandsdarstel-
Seltsamer Attraktor, 114 lung, 125
aufklingen, 69 Darstellungen, 124
Ausgangs erweitertes System, 131, 133
-gleichung, 30, 55 formale Darstellung, 124
-größe, 18, siehe Systemausgang Komplikationen bei Index >1, 125
-matrix, 37, 55 numerische Lösung, 130
Ausgangsgröße, 123 DAE-System, siehe DA-System
Auslenkung, 41, 65 Dekomposition, 18, 172
Auto, 31 Detaillierungsgrad, 18
-modell, 39 Determinante, 75
differential-algebraisches System, siehe
Bahnkurve, siehe Trajektorie DA-System, siehe DA-System
Baustein, siehe Modellbaustein Differentialgleichung, 29, 46
Beschleunigung erster Ordnung, 30, 41, 77
Erd-, 31 gewöhnliche, 24
Bestimmungsgleichung partielle, 24
physikalische, 60 System n-ter Ordnung, 41
Bifurkation, 117 zweiter Ordnung, 64
Bilanz differentieller Index, 127, 131, 136, 214
-raum, 222 Durchfluss, 30
Energie-, 226 Durchgangsmatrix, 37, 55
Massen-, 225 Durchmesser

258
STICHWORTVERZEICHNIS 259

Rohr-, 31 gewöhnliche, siehe Gleichung, alge-


Dymola, siehe Modelica, 129 braische
Dynamik, 203 umstellen, 50
Gleichungssystem
Eigenwert differential-algebraisches, siehe DA-
-matrix, 59 System
-zerlegung, 60, 63 lineares, 75
einfacher, reeller, 59 gPROMS, 177
konjugiert komplex, 64 Granularität, 18
konjugiert komplexer, 65 Graphen, 149
mehrfacher, reeller, 62 Graphentheorie, 21
Eingangs Grenzzyklus, 89, 113, 118
-größe, 18, 29, 52, siehe Systemein-
gang Hüllfläche, 15
-matrix, 37 Hartmann-Grobmann, 102
Glattheit des, 134 Hierarchie, 18
Eingangsgröße, 123 von Modellen, 22
Einhüllende, 81 Homogenität, 40
Einzugsbereich, 109 Hybridsystem, 16
Entwicklungs- und Entwurfsprozess, 10
Index, siehe differentieller Index
erweitertes System, 131
-reduktion, 127, 130
Euler-Formel, 65, 68
Integratorverhalten, 77
Interpretation
Füllstand, 30, 49, 77
von Simulationsergebnissen, 14
Feder, 30
Invertierbarkeit, 75
-Dämpfer-System, 39, 249
der algebraischen Gleichungen, 125,
-konstante, 39
127, 128
Flussgröße, 182, 222
Inzidenz-Matrix, 91
Freiheitsgrade, 50
dynamischer Systeme, 51 Jordan
stationärer Systeme, 50 -Block-Typen, 58
Freischneiden, 40, 222 -Normalform, 57, 59
Funktion
definite, 97 Kinematik, 203
Kirchhoff’sche Gesetze, 136, 193
Gütemaß, 20 Knoten, siehe Schaltkreis
Gleichung Koeffizient
Algebraische, 24 Koeffizienten sammeln, 38, 42
algebraische, 30, 46 stöchiometrischer, 226
Differential- Komponente, 12, 16
gewöhnliche, 24 Kondensator, 30
partielle, 24 Konstruktion
Differenzen-, 24 statische, 47
260 STICHWORTVERZEICHNIS

Konzepte, 16 System-, siehe Systemmatrix


Kopplungsgröße, 30, 31 Mess
Kräftegleichgewicht, siehe Newton’sche -größe, siehe Systemausgang
Gesetze -matrix, siehe Ausgangsmatrix
Kupplung, 203 Modelica, 43, 177, 232
continuous-time states, 132
Lösbarkeit hybrider Automat, 163
nichtlineare Systeme, 90
Konnektor, 215, 222
Lösung
MultiBody-Bibliothek, 215
analytische, 43, 67
time-varying variables, 132
numerische, 43
Umgang mit Index, 137
parametrisierte, 44
Modell, 22
partikuläre, 72
-bausteine, 23
stationär, 93
-familie, 22
stationäre, 76
Analyse, 13
La Salle’s Theorem, 101
Darstellung, 136
Ladung
Definition nach Minsky, 22
elektrische, 30
Detaillierungsgrad, 23
Latin Hypercube Sampling, siehe
mathematisches, 13, 136
Monte-Carlo-Methoden
Simulations-, siehe Simulationsmo-
lineares System
dell
zeidiskretes, 144
Linearisierung, siehe Taylor- Modellgleichung, 60, 77
Entwicklung Modellieren und Analysieren, 12
Ljapunow, 97 Modellierung, 22, 174
-Funktion, 97 elektrischer Systeme, 187
Lorenz-System, 115 mechanischer Systeme, 203
objekt-orientierte, 136
Masche, siehe Schaltkreis strukturierte Systeme, 171
Matlab, 177 Modellierungssprache, 13
Matrix Momentengleichgewicht, siehe New-
-Exponentialfunktion, 56 ton’sche Gesetze
-Vektor-Notation, 38, 41, 42 Monte-Carlo-Methoden, 238
-büschel, 134
Ausgangs-, siehe Ausgangsmatrix Näherung, 46
blockdiagonale, 57 Newton’sche Gesetze, 126, 136, 207
Determinante, 75 nichtlineares System
Durchgangs-, siehe Durchgangsma- zeidiskretes, 145
trix
Eingangs-, siehe Eingangsmatrix Objekte, 16
inverse, 75 Offline-Anwendungen, 11
Jacobi, 91, 104 Online-Anwendungen, 11
singuläre, 63, 76, 77 Oszillation, 65
struktureller Rang, 92 periodische, 69
STICHWORTVERZEICHNIS 261

Parameter, 30, 31, 52 Fokus, 109


-einfluss, 237 lineare Systeme, 74
-raum abtasten, 238 Sattel, 108
-schätzung, 237 Zentrum, 110
Einfluss in nichtlinearen Systeme, -zustand, siehe Ruhelage
116
Pendel Satz von Picard-Lindelöf, 90
Auswahl, 132 Schaltkreis
DA-System, 126 Knoten, 193
Umformung des DA-Systems, 129 Masche, 193
und Feder, 206, 209, 212, 214 Schnittgröße, 177
Petri-Netze, 149 Schnittstelle, 178, 222
Eigenschaften, 154 Schwingung, siehe Oszillation
Phasenportrait, 45 Senkenterm, 224–226
Picard-Lindelöf Sensitivität, 238
Satz von, 90 Sensitivitätsanalyse, 238
Potentialgröße, 182, 222 Separatrix, 108
Prozess, 29 Simulation
stationärer Fließ-, 47 Ablauf, 12, 219
Definition, 9
Quantisierung, 146
Robustheit des Modells, 238
Quellenterm, 224–226
Software, 14, 129
Querschnitt, siehe Durchmesser
Simulations
Radaufhängung, 39, 249 -experimente, 237
Random Sampling, siehe Monte-Carlo- -güte, 237
Methoden -gestützte Analyse, 237
Rang Simulations-
-defekt, 76, 78 modell, 13
voller, 75 validieren, 13
Reaktions Simulink, 177
-gleichung, 225 Spannung
-rate, 226 elektrische, 30
Reformulierung mechanische, 30
der Anfangsbedingungen, 37 SPEEDUP, 177
linearer, zeitvarianter Systeme, 42 Speicher
nichtlinearer, zeitvarianter Systeme, -system, 204
35 Speichergröße, siehe Zustand
Repellor, siehe Attraktor Stabilität, 78
Robustheit des Simulationsmodells, 238 -sanalyse, 95
Ruhe asymptotische, 47, 79
-lage, 47, 74 nichtlineare Systeme, 95
Eindeutigkeit, 75 Zustände, 84
Existenz, 75 Stellgröße, siehe Systemeingang
262 STICHWORTVERZEICHNIS

Straßenprofil, 39, 71 offenes, 18


Strukturierung, 171 stationäres, 17, 45, 47, siehe auch
Subjekte, 16 Ruhelage
Superposition, 40, 72 statisches, 17
System Strukturierung, 18, 173, 220
-analyse, 55, 123, 136 thermodynamisches, 219
-ausgang, 29 und Problemstellung, 12
-darstellung, 21 verfahrenstechnisches, 30, 219
-eingang, 31, 55 Verhalten, 17
-konzept, 15 verteiltes, 24
-matrix, 37, 58, 64 Visualisierung, 43
-theorie, 14 vollständig spezifiziertes, 132
Definition nach Bertalanffy, 14, 15 wertdiskretes, 146
-typen, 20 zeitdiskretes, 143
Ablauf-, 20 Zweck oder Funktion, 20
Aufbau-, 20
autonomes, 55, 127 Tankkaskade, siehe Brunnenkaskade
autonomes lineares, 55, 63, 69 Taylor-Entwicklung, 102
Baustein, 16, 18 Teilsystem, 18, 220
chaotisches, 114 Entkopplung, 19
Definition nach DIN 19226, 15 Unterteilung, 171
differential-algebraisches, siehe DA- Zerlegung, 204
System Temperatur, 30
diskret-kontinuierliches, 162 Thermodynamik
diskretes, 141 Hauptsätze, 136
dynamisches, 17, 31, 45 Through-Variable, 182
Eigenschaften, 16 Trägheit, 39
elektrisches, 30 Trajektorie, 43, 106
elementares, 173 Transiente, 47
ereignisdiskretes, 147 Validieren, siehe Simulationsmodell
erweitertes, 37 Ventil, 31, 77
Freiheitsgrade, 50 Verhalten
geschlossenes, 18 gedämpftes, abklingendes, 69
Informationsgehalt, 20 qualitatives
Klassifizierung, 32 Bewertung, 81
komplexes, 31 Verknüpfungs
konzentriertes, 24 -system, 204
lineares, zeitinvariantes, 37 versteckte Gleichungen eines DA-
lineares, zeitvariantes, 41 Systems, 131
Lorenz-, 115 Visualisierung, 43
nicht-autonomes lineares, 71 Vorzeichenkonvention, 224
nichtlineares, zeitinvariantes, 32
nichtlineares, zeitvariantes, 35 Wärmeübergangskoeffizient, 31
STICHWORTVERZEICHNIS 263

Wassertankkaskade, siehe Brunnenkas-


kade
Wechselwirkungen, 173

Zeit
-abhängigkeit, 35, 41
-invarianz, siehe Zeitunabhängig-
keit
-unabhängigkeit, 31, 37
-varianz, siehe Zeitabhängigkeit
Zeitableitung, 128
Zerlegung, siehe Dekomposition
Zulaufstrom, 31, 49
Zustand, 30
stationärer, 50, siehe auch Ruhela-
ge, 77
Zustands
-änderung, 48
-darstellung, 30, 35, 41, 46, 48, 60,
74, 128, 137
Überführung eines DA-Systems in
-, 125
Vorteile, 31, 123, 136
-erweiterung, 36
-gleichung, 30, 55, 227
-größe, 65
-raum, 36, 43, 106
-raumdarstellung, siehe Zustands-
darstellung
-raummodell, siehe Zustandsdar-
stellung
-raumsystem, siehe Zustandsdar-
stellung
-vektor, siehe Zustand
-verlauf als Funktion der Zeit, 43

Das könnte Ihnen auch gefallen