CAD_Plus

236 Aufrufe

Veröffentlicht am

0 Kommentare
0 Gefällt mir
Statistik
Notizen
  • Als Erste(r) kommentieren

  • Gehören Sie zu den Ersten, denen das gefällt!

Keine Downloads
Aufrufe
Aufrufe insgesamt
236
Auf SlideShare
0
Aus Einbettungen
0
Anzahl an Einbettungen
2
Aktionen
Geteilt
0
Downloads
0
Kommentare
0
Gefällt mir
0
Einbettungen 0
Keine Einbettungen

Keine Notizen für die Folie

CAD_Plus

  1. 1. € 6,20,- / SFr 12,- xxxxxxxxxxx 2005 · E 10811 3/2005 Starke Einheit Warum Thomas Bad- stieber auf sein CAD-Tool schwört Mode-Design Den Schnitt durch CAD-Hilfe vergoldet Heft im Heft! digitalPLANT über Projektmanagement im Anlagenbau www.cadplus.de € 6,20,- / SFr 12,- Februar / März 2006 · E 10811 2/2006 Raus aus der Masse Nachgefragt: Was bei PLM anders werden muss Das andere PLM für die flexible, schlanke Entwicklung
  2. 2. Der Umgang mit komplexen Syste- men beruht bisher auf zwei Prinzi- pien: Das bekannte „kiss“ (keep it simple and stupid), was bedeutet, Komplexität ver- meiden, und dem weniger bekannten „destruct“ (define, structure, react), also Systeme zu strukturieren und zu überwa- chen. Nach dem Ansatz „destruct“ ist heu- te das übliche Vorgehen die Zerlegung ei- nes Gesamtprozesses in einfachere Subpro- zesse und Komponenten und eine dafür passende Definition und Überwachung von Parametern beziehungsweise Stellgrößen. Je komplizierter die Systeme und Prozes- se jedoch werden, desto wirkungsloser ist ihre Regelung auf der Ebene der Kompo- nenten oder Subprozesse. Denn je mehrVa- riable in einen Prozess eingreifen, desto we- niger „kritische“ Variablen gibt es, die als Führungsgröße dienen könnten. Je weniger eine Variable dominiert, desto mehr basiert das Gesamtsystem auf dem Zusammenspiel vielerVariablen. Bei dieser Kopplung können bereits kleine, unwillkürliche Störungen das Gesamtsystem dramatisch verändern – ein Effekt übrigens, den wir täglich in Politik und Wirtschaft beobachten können. Bei Systemen mit Hunderten, Tausenden von Variablen und Komponenten verlieren übliche Ziele wie optimaler Wirkungsgrad oder Beherrschbarkeit an Bedeutung, da die Komplexität eine derartige Reduktion verei- telt. Der Begriff der „Robustheit“ des Ge- samtprozesses gegenüber Abweichungen in den Eingangsgrößen tritt an die Stelle des optimalen Wirkungsgrads. Doch was ist un- ter Robustheit zu verstehen? Lässt sie sich messen? Die herkömmliche Definition von Robustheit misst die Breite einer Wahr- scheinlichkeitsverteilung eines Ausgangspa- rameters alsAntwort auf Störungen der Ein- gangsparameter. Danach hat ein robustes System eine schmale, ein nicht robustes Sys- tem eine breiteVerteilung, in jedem Fall aber nur ein Maximum („unimodal“). In der Verfahrenstechnik begegnet man häufig hoch nicht-linearen Prozessen und multiphysikalischen Aufgabenstellungen. Ein Ausdruck dessen sind mehrere Maxima in der Wahrscheinlichkeitsverteilung der Aus- gangsparameter („multimodal“). Eine Stö- rung kann einen spontanen Sprung von ei- nem Maximum zum anderen, also von einem Systemzustand zum anderen bewirken. Knoten im Zustandsraum. Robust- heit definiert sich damit aus der Form der Wahrscheinlichkeitsverteilung (multimodal versus unimodal) und nicht aus der Breite der Verteilung der Ausgangsvariablen. Im all- gemeinen Fall eines komplexen Systems mit vielen Ein- und Ausgangsgrößen spannen diese einen multidimensionalen (Zustands-) Raum auf, in dem jeder Punkt einen Zustand des Systems definiert. Entsprechend dem vorigen Beispiel kann es darin natürlich sehr viele Maxima in derVerteilung derAusgangs- parameter geben. Komplexe Systeme können auf Grund scheinbar trivialer interner oder externer Ereignisse ihren Zustand massiv ändern, da diese durch die internen Abhängigkeiten auf unzählbar viele Arten weitergeleitet und verstärkt werden können. Daher ist es not- wendig, die Komplexität eines Systems zu verstehen und daraus zu lernen. Herkömmliche Methoden zur Messung der Komplexität betrachten einfach den Graphen des Prozesses und bestimmen des- sen Eigenschaften, zum Beispiel Rückkopp- lungsschleifen. Diese sind allerdings in der Regel eher Gegenstand akademischer Be- trachtungen. Die Firma Ontonix SRL hat in- novative Methoden auf der Basis von Mon- te-Carlo-Simulationstechniken entwickelt, die über die Topologiebetrachtung dieser Graphen und das einfache Berechnen von Streuungen oder Ausfallwahrscheinlichkei- ten hinausgehen. Im Prinzip wird dabei durch die Variation der Eingangsparameter über ihren gesamten Wertebereich die Ver- teilung der Ausgangsparameter im Zu- standsraum „pixelweise“ dargestellt und an- schließend analysiert. Statt einer Computer- simulation können auch reale Messdaten aus dem betrachteten Prozess als Basis für die- se Auswertung dienen. Gut ausgeleuchtet. Richtig angewandt, werden diese Methoden zu einem Kernele- ment im Verständnis von Komplexität und Robustheit eines Systems oder Prozesses. Die Software OntoSpace von Ontonix ist die erste Software ihrer Art, die es ermög- licht, die Art und Struktur der Komplexität eines Systems zu erfassen und dadurch sei- ne Robustheit zu quantifizieren. Ähnlich wie durch eine Fourier-Analyse aus einem Signal die dominanten Schwingungszustände eines Systems ermittelt werden können, kann On- toSpace die dominanten Systemzustände („Modalwerte“) aus der Verteilungsfunktion im Zustandsraum ermitteln und in Entschei- dungsgrafiken („Decision Maps“) darstellen. Für jeden dieser Graphen lassen sich dann Fragen beantworten wie: q Wie komplex ist dieser Prozesszustand? q Wie störanfällig ist dieser Prozesszu- stand? q An welcher Stelle des Prozesses ist die größte Wahrscheinlichkeit einesVersagens? q An welcher Stelle des Prozesses ist die höchste Störanfälligkeit? q Wie versagt der Prozess am wahrschein- lichsten? q Wie lässt sich die Komplexität des Pro- zesses reduzieren? Decision Maps bilden einen Satz von ver- wandten Regeln, die das Verhalten des Sys- X digitalPLANT Business+Engineering 2/2006 WHITE PAPER Komplexe Systeme verstehen lernen Prozesse und Systeme beste- hen aus einem teilweise nicht unmittelbar überschaubaren Zusammenspiel vielfältiger Abhängigkeiten. Eine Anlage, beispielsweise ein Kernkraft- werk, ist hierzu ein Beispiel für ein „technisch“ komplexes System. Ein anderes Exempel ist eine Volkswirtschaft für „natürlich“ komplexe Prozes- se.Während eine Anlage nach einem Plan errichtet wurden, sind Wirtschaftsprozesse aus sich selbst entstanden. Die Herausforderung besteht dar- in, das zugrunde liegende Wechselspiel genau zu verste- hen und auf einen bestimm- ten Nutzen hin zu optimieren. Intuition jedenfalls ist dabei oftmals ein schlechter Lehr- meister. Die Helium-Test-Einrichtung (HTF) im südafrikanischen Pelindaba wird den vollstän- digen Heliumkreislauf des neuen Kernkraft- werks PBMR auf Herz und Nieren prüfen. PBMR nutzt Kugeln (60 Millimeter Durchmesser), die mit Urandioxid angerei- chert und mit Siliziumkarbid überzogen sind (1). Bilder(2):PBMR
  3. 3. Die nächste Ausgabe erscheint zusammen mit CADplus am 11. April 2006 Die Achema 2006 vom 15. bis 19. Mai in Frankfurt am Main wird auf deutlich bessere glo- bale wirtschaftliche und politi- sche Rahmenbedingungen tref- fen als ihreVorgängerveranstal- tung im Jahre 2003. Dies zu- mindest ist die Meinung des Veranstalters Dechema e.V. . Auf der Aussteller- wie der Be- sucherseite zeichnet sich welt- weit ein ungebrochen großes Interesse ab, zumal die Pro- zessindustrien in allen aufstre- benden Industrienationen ei- nen Schwerpunkt bilden. Wir berichten über die Auftritte der wichtigsten Systemanbieter im Plant-Engineering-Umfeld. In digitalPLANT 3/2006 wartet folgendes Thema auf Sie: Drehscheibe Frankfurt am Main Längst laufen die Vorbereitungen für die Achema-Auftritte bei den Systemanbietern auf Hochtouren Bild:Dechema/Stettin Weltforum der Prozessindustrie tems in dem entsprechenden Zustand be- stimmen. Ein Beispiel für einen derartigen Plot ist der hier gezeigte, der im Rahmen der Entwicklungsarbeiten für den geplanten Kugelhaufenreaktor in Südafrika von der Fir- ma Pebble Bed Modular Reactor (1) erstellt wurde. Mit dem Bau der Anlage soll im kom- menden Jahr begonnen werden. Die Anlage wurde zunächst mit dem Programm Flow- nex (2) modelliert. Mit diesem Modell wur- de anschließend eine Monte-Carlo-Simula- tion durchgeführt, bei der die Parameter- werte stochastisch variiert wurden. Dieses Vorgehen erlaubt eine Risikoanalyse der An- lage inklusive der Bestimmung von Redun- danzen und des sogenannten Fail-Safe-Ver- haltens. Die roten Punkte („connectors“) il- lustrieren Relationen zwischen den Varia- blen des Systems. Jede Relation korrespon- diert mit einer Regel, die durch ihre Wich- tung oder Stärke charakterisiert ist. Wenn sich der Nutzer der Software durch den Zustandsraum „bewegt“, kann sich die Topologie der Modalwerte verändern und neue Variablen können an Bedeutung gewin- nen, während andere ihren Einfluss einbüßen oder die Stärke der Regeln sich verändert. Die Leistungsfähigkeit von OntoSpace liegt in seiner Fähigkeit, das oft nicht-intuiti- veVerhalten von Systemen aufzudecken.Tat- sächlich erhöht sich die Zahl der Modalwer- te, die nicht-intuitives oder gefährliches Ver- halten repräsentieren, mit der Erhöhung der Komplexität rasant. Realismus oder Präzision. Um Risiken vorherzusagen und steuernd eingreifen zu können, ist es von höchster Wichtigkeit, ein derart gefährliches Verhalten zu erkennen, bevor es sich in der Realität einstellt. Dabei ist eine hohe Komplexität nicht unbedingt mit einer hohen Zahl von Systemkompo- nenten gleichzusetzen. So wie Komplexität von uns verstanden wird, sind viele Kompo- nenten nur eine notwendige, nicht aber eine hinreichende Bedingung.Tatsächlich können auch einfache, autonome Agenten in ihrer Kombination zu erstaunlich komplexemVer- halten fähig sein. Die vom Menschen formulierten Gesetze wie das Zweite Newtonsche Axiom geben die wahre Natur nur angenähert wieder. Si- cherheitszuschläge wurden daher ange- wandt, um diese „stochastische Unruhe“ zu überdecken und wieder zu einer determi- nistischen Beschreibung zurückzukehren. Doch gibt es immer etwas, was bei diesem Kalkül unter den Tisch fällt. Daher kann nicht ausgeschlossen werden, dass eine un- vorhergesehene Kombination an Faktoren zu einer Katastrophe führt. Heute beginnen wir zu verstehen, dass zugrunde liegende beschreibende Modelle nicht exakt sein müssen. Schließlich ist auch die Natur nicht „exakt“. Diese Erkenntnis setzt sich inzwischen bei Berechnungsinge- nieuren mehr und mehr durch. Die Berück- sichtigung der Unsicherheit bei den Parame- tern eines Computermodells, wie es das Tool MSC.Robust Design (3) als Ergänzung zu MSC.Nastran erlaubt, steigert die Aussa- gekraft der Modelle ganz enorm. Übrigens basiert MSC.Robust Design auf der Techno- logie von Ontonix. In der Prozessindustrie steht diese Ent- wicklung noch am Anfang. Doch die enor- men Bilanzwerte, die Anlagen hier darstel- len, das große Schadenspotenzial im Fall ei- nes Versagens – nicht nur bei nuklearen An- lagen – wird sicher auch hier ein Umdenken sowohl bei Anlagenbauern als auch bei Anla- genbetreibern bewirken und dafür sorgen, dass die naturgegebene Unsicherheit der re- alen Welt sich auch in deren digitalen Abbil- dern wiederfindet und sich minimieren lässt. Der Ansatz von Ontonix ist dafür ein gang- barer Weg. JACEK MARCZYK (1) www.pbmr.com (2) www.flownex.com (3) CADplus 3/2004, Feldhaus, U., „Den Nagel auf den Kopf treffen“, Göller, Baden-Baden Weitere Informationen zu hier vorgestellten Lösung unter www.ontonix.com INFOCORNER Entscheidungsgrundlage. Eine Decision Map entspricht einem möglichen Modalwert eines Prozesses. Bei komplexen Prozessen kann es bis zu mehrere hundert Modalwerte geben. Dun- kelrot sind die sogenannten Hubs oder kritischen Variablen gekennzeichnet, die besonders viele Verbindungen aufweisen. Die Zahl der Hubs ist ein direktes Maß für die Robustheit des Systems. Quelle:Ontonix,PBMR2006 digitalPLANT Business+Engineering 2/2006 XI

×