Projekte
Teil unserer Forschung sind vielschichtige Praxisprojekte. Sowohl in Projekten einzelner Mitarbeiter als auch in institutsübergreifenden Projekten wurden auf unterschiedlichen Ebenen Forschung und Praxis wirkungsvoll mit einander verknüpft.
Projekte einzelner Mitarbeiter:
- IT - Value Management
- Prognosen zur Kundenabwanderung für Versicherungsgesellschaften
- Prognosen zur Kundenabwanderung für Internet Service Provider
- Aufdeckung von Versicherungsbetrug
- Antwortoptimierung im Abonnementen-Marketing.
- Kundenbeziehungs-Management im Finanzservice-Sektor
- Installation eines Client-Server-Systems mit integriertem Schulungskonzept
- TLS für das automatische Umschlagssystem der HHLA
- Konfiguration eines Distributionslogistiknetzwerks
- Begutachtung des neuen Barcodesystems bei Nedlloyd Unitrans GmbH
- Algorithms for Robust and online Railway optimization: Improving the Validity and reliAbility of Large scale systems (ARRIVAL)
- Wirtschafts- und Technomathematik in Schulen (WiMS/TeMS)
- Management Mathematics for European Schools (MaMaEuSch)
- Effizienzevaluation in automatisierten Container Terminals
- Data Mining Projekt
- Evaluation von Einzelhandelsstandorten
- Modellierung des Kaffeemarktes aus Konsumentensicht
- Voraussage des USD-DEM Wechselkurses unter Zuhilfenahme von künstlichen neuronalen Netzen
Interessieren Sie sich für Einzelheiten? Dann besuchen Sie doch unsere Mitarbeiterseiten.
Weitere aktuelle und ältere Institutsprojekte :
TwinSim - Entwicklung eines digitalen Zwillings für eine simulationsbasierte Optimierung von Transport-, Lager- und Instandhaltungsvorgängen im Containerterminal
Motivation
Ein stetig steigender Kosten- und Wettbewerbsdruck in der Hafenindustrie erfordern die Erkennung und Analyse neuer Handlungsalternativen und datengetriebene Entscheidungen. Als wichtiges Bindeglied innerhalb der globalen Lieferketten sind Containerterminals in besonderem Maße gefordert, neue Optimierungspotenziale erkennen, bewerten und adressieren zu können. Transparenz spielt eine essenzielle Rolle für eine stetige und nachhaltige Verbesserung der Effizienz, Zuverlässigkeit und Qualität von Prozessen in Containerterminals. Durch den Einsatz digitaler Technologien im Umfeld von Industrie 4.0 kann die Transparenz maßgeblich erhöht werden und bildet eine wichtige Grundlage für eine datengetriebene Entscheidungsunterstützung. Digitale Zwillinge gelten als Schlüsseltechnologie der Logistik 4.0 und ermöglichen eine Abbildung von physischen Systemen in der digitalen Welt.
Projektziel
Das Vorhaben TwinSim hat das Ziel, mit den Projektpartnern aus Forschung, Entwicklung und Endanwendern, einen digitalen Zwilling für die virtuelle Abbildung von Abläufen und Equipment im Containerterminal zu entwickeln, die es ermöglicht, Analysen und simulationsbasierte Optimierungen durchzuführen, die zu Verbesserungen im Hinblick auf Effizienz, Produktivität, Resilienz und Umwelteinfluss von Terminals führen sollen. Dabei sollen Technologien und Ansätze erforscht und entwickelt werden, die in ein neues digitales und innovatives Werkzeug münden, welches unmittelbar für die Planung von Transport-, Lager- und Instandhaltungs-vorgängen eingesetzt werden kann. Dabei wird vor allem auch die digitale Transformation der Terminals vorangetrieben sowie das Thema Logistik 4.0. Die Anwendung soll zunächst im EUROGATE Container Terminal Hamburg (CTH) getestet und bereitgestellt werden.
Lösungsansatz
Zunächst sollen funktionale und nicht-funktionale Anforderungen mittels einer Anforderungsanalyse und Use Case Definition erhoben werden. Basierend auf der Auswertung dieser Anforderungen erfolgt die Anbindung der betroffenen Geräte und Systeme an einen Data Lake mit Hilfe von IIoT-Technologien. Die so entstandene Datenplattform bildet im weiteren Projektverlauf die Grundlage für die Echtzeit-3D-Visualisierung sowie die historische Datenvisualisierung. Des Weiteren wird die Plattform für die Entwicklung von Simulations-modellen und KI-Verfahren zur Optimierung von Transport-, Lager- und Instandhaltungs-vorgängen eingesetzt.
Projektträger: TÜV Rheinland Consulting
Projektvolumen: 3.648.293,- € (davon 54% Förderanteil durch BMVI)
Projektlaufzeit: 10/2021 – 09/2024
Wissenschaftlicher Projektleiter: Dr. Leonard Heilig, leonard.heilig@uni-hamburg.de
Berth Allocation Problem (22.05.2020)
Momentan arbeiten wir am Dynamischen Berth Allocation Problem. Die Daten zum untenstehenden Paper können Sie hier downloaden.
Das Paper finden Sie hier oder über diesen Link: https://doi.org/10.1016/j.ejor.2019.03.036
M-LDLT: Maritime Load Dependent Lead Times: Durchlaufzeiten und ökoeffizientes Lean Management in der maritimen Wertschöpfungskette
Dieses Jahr startet das Projekt "Maritime Load Dependent Lead Times: Durchlaufzeiten und ökoeffizientes Lean Management in der maritimen Wertschöpfungskette (M-LDLT )“, welches gefördert wird durch die Landesforschungsförderung Hamburg zur Entwicklung einer internationalen Forschungskooperation im Ostseeraum. Im Projekt wird gemeinsam mit zwei Partnern, der Syddansk Universitet mit Associate Professor Julia Pahl vom Center of Engineering Operations Management und der Universität Paderborn mit Junior-Professor Kevin Tierney vom Zentrum für Maschinenbau Operations Management, das Phänomen der maritimen auslastungsabhängige Durchlaufzeiten (M-LDLT) untersucht. Diese werden durch Verzögerungen und unzureichendes Informationsmanagement zwischen maritimen Logistikkettenpartnern ausgelöst. Das Projekt beinhaltet gründliche Ursachenanalysen und systemweite Betriebs- und Informationsmanagement-perspektivische Optimierungen. Ein weiterer Schwerpunkt liegt auf der Energieeffizienz und der Minimierung von Abfällen im Energiebereich und anderer kritischer Ressourcen.
Das Projekt wird für zwei Jahre ab dem 01. Januar 2017 finanziert und umfasst den Aufbau einer soliden internationalen Forschungsgruppe, die zukünftig ein starkes Konsortium für europäische Fördermittel wie Horizon 2020 bilden will. Dazu umfasst das Projekt die Durchführung von Workshops zur Sichtbarmachung und Verknüpfungen von auslastungsabhängigen maritimen Durchlaufzeiten mit benachbarten Forschungsthemen und innerhalb der maritimen Forschungsgemeinschaft.
Die Projektmitglieder haben sich vorgenommen, innerhalb des zweijährigen Projekthorizonts in der Lage zu sein, namhafte Forscher und Teams zu gewinnen, um ein starkes internationales Netzwerk für maritime Logistik- und Informationswissenschaften für den Umgang mit globalen Herausforderungen in der maritimen Logistik aufzubauen.
Für weitere Informationen besuchen Sie bitte unseren englischen Webauftritt!
Notiz zum Paper 'A hybrid genetic algorithm for the multi-depot open vehicle routing problem'
In einem Erratum zu ihrem Artikel "A hybrid genetic algorithm for the multi-depot open vehicle routing problem ", korrigierten Liu et al. [3]1 einige der Tabelleneinträge aus ihrem Paper [4]. Allerdings haben sie ein Problem in Bezug auf die Daten einer Probleminstanz nicht korrigiert. In ihrem Artikel haben die Autoren korrekt angegeben, dass sie die Probleminstanzen von Cordeau et al. [1] verwendet haben. Als sie allerdings die Probleminstanzen aus dem Cordeau et al.-Format in ihr eigenes Format übertrugen, enthielten diese einen Fehler. In dieser kurzen Anmerkung weisen wir auf den Unterschied zwischen den Daten innerhalb der Probleminstanz und denen der ursprünglichen Quelle [1] und Liu et al.[4] hin. Darüber hinaus liefern wir mit dem Optimierungsmodell von Lalla-Ruiz et al. [2] den optimalen Lösungswert für beide Fälle, nämlich sowohl für die Liu et al. Instanz als auch für die korrigierte, die das gleiche Szenario von Cordeau et al.[4] repliziert. Zu beachten ist, dass dies auch eine Korrektur des optimalen Werts in [2] darstellt.
Instanzen von Liu et al. [4] | korrigierter Wert | |
Instanz | Erratum opt. Zeitwert (s) | Erratum opt. Zeitwert (s) |
p15 |
posmx = 1; posmy = 110 1883.53 42.57 |
posmx = 0; posmy = 110 1885.81 44.66 |
Tabelle 1: Probleminstanz p15
Tabelle 1 zeigt das Erratum in den Daten der Instanz p15 sowie den optimalen Lösungswert (Wert) und Berechnungszeit (Zeit (s)) für die Instanz (korrigiertem Wert) mit und ohne Korrektur unter Verwendung des gleichen mathematischen Modells und der gleichen Umgebung wie in [2]. Wie in der Tabelle angegeben war eine der Koordinaten von einem der Depots, posmx, nicht korrekt abgebildet, was zu einem modifizierten optimalen Lösungswert für die oben erwähnte ursprüngliche Instanz führte. Untenstehend stellen wir als elektronische Anlage zu dieser Berichtigung die Problem-Instanz zu Liu et al. mit dem korrigierten Fehler sowie auch die PDF-Version dieser Notiz für Zitationen bereit.
1 Zu beachten ist, dass das Erratum auf den Hinweisen von einem der Autoren basiert.
Literatur:
1. J. F. Cordeau, M. Gendreau, and G. Laporte. A tabu search heuristic for periodic and
multi-depot vehicle routing problems. Networks, 30(2): 105-119, 1997.
2. E. Lalla-Ruiz, C. Exposito-Izquierdo, S. Taheripour, and S. Voß. An improved formulation
for the multi-depot open vehicle routing problem. OR Spectrum, 38(1): 175-187, 2016.
3. R. Liu, Z. Jiang, and N. Geng. Erratum to: A hybrid genetic algorithm for the multi-depot
open vehicle routing problem. OR Spectrum, 36(2): 423-424, 2014.
4. R. Liu, Z. Jiang, and N. Geng. A hybrid genetic algorithm for the multi-depot open vehicle
routing problem. OR Spectrum, 36(2): 401-421, 2014.
Hier finden Sie die Pdf-Version der obigen Notiz.
Hier finden Sie die ZIP-Datei mit die Probleminstanzen in den Originalen und mit Korrektur.
Heuristischer Ansatz zum Teilen von Graphen in 2-zusammenhängende Komponenten mit einer Größenbeschränkung
In dieser Arbeit stellen wir einen neuen Ansatz vor, um die maximale 2-zusammenhängende Partitionierung eines Graphen mit einer Größenbeschränkung (MBCPG-SC) zu finden. Mit dem Ziel, annähernde Lösungen für den MBCPG-SC zu finden, wird eine heuristische Methode basierend auf der Open-Ear-Decomposition von Graphen entwickelt. Der wesentliche Teil dieser Methode ist die Anpassung der breiten ersten Suche, die eine Entwicklung 2-zusammenhängender Untergraphen ermöglicht. Der vorgeschlagene randomisierte Algorithmus ermöglich die parallele Entwicklung mehrerer Teilgraphen. Die Qualität der so erzeugten Lösungen wird durch eine lokale Suche weiter verbessert, die Nachbarschaftsbeziehungen zwischen den Teilgraphen ausnutzt. Um die Leistungsfähigkeit des Verfahrens zu bewerten, wird ein Algorithmus zum Erzeugen von pseudozufälligen Unit-Disk-Graphen mit bekannten optimalen Lösungen erstellt. Berechnungen wurden auch auf Graphen durchgeführt, die elektrische Verteilungssysteme in einem realen Problem darstellen, um sie in ein System von fehlertoleranten, miteinander verbundenen Mikrorastern aufzuteilen. Die Experimente zeigen, dass das vorgeschlagene Verfahren häufig optimale Lösungen findet und einen durchschnittlichen Fehlerquotienten von nur wenigen Prozent zu bekannten optimalen Lösungen aufweist. Darüber hinaus gelingt es, qualitativ hochwertige Näherungslösungen für Graphen mit bis zu 10.000 Knoten in einem angemessenen Zeitrahmen zu finden.
Hier können Sie die Probleminstanzen downloaden.
Paralleles Maschinenbelegungsproblem mit schrittweiser Verschlechterung
Das parallele Maschinenbelegungsproblem mit schrittweiser Verschlechterung ergibt sich aus realen Umgebungen, in denen der Verarbeitung eines Auftrags zu einem späteren als dem vorher festgelegten Zeitpunkt zu einer zusätzlichen Verarbeitungszeit führen kann. Diese zeitabhängige Veränderung ist in der Literatur als schrittweise Verschlechterung bekannt und besitzt mehrere praktische Anwendungen (in der Produktionsplanung, der Computerprogrammierung, im Bereich medizinischer Behandlungen oder bei Wartungsarbeiten, etc.). Dieses Problem zielt darauf ab, die Gesamtausführungszeit auf identischen Maschinen parallel zu minimieren, wobei jeder Auftrag ein Verfallsdatum und eine Stufenfunktion für die Verarbeitungszeit erhält.
Die Probleminstanzen finden Sie hier.
Hier geht es zum Paper: http://www.sciencedirect.com/science/article/pii/S0377221716302296
Neuverteilung in Container Yards
Auf Containerterminals wird die Neuverteilung von Containern vorgenommen, um eine weitere Umverteilung möglichst auszuschließen. Ist beispielsweise der Stauplan für ein ankommendes Schiff bereits bekannt, werden im Yard Neuverteilungsoperationen gestartet, die unproduktives Umverteilen reduzieren sollen. Spezifische Probleme wie das Blocks Relocation Problem (BRP) oder das Premarshalling Problem (PMP) berücksichtigen dazu noch, ob die Neuverteilung vor der Ankunft des Schiffs oder während des Ladevorgangs vorgenommen wird.
Instanzen
Die Probleminstanzen für das Blocks Relocation Problem (BRP) von M. Caserta, S. Schwarze, S. Voß: A mathematical formulation and complexity considerations for the blocks relocation problem. European Journal of Operational Research, 219(1), S. 96-104, 2012,
finden Sie hier.
Eine geupdatete Version unseres OR Spectrum Papers zur Corridor Method sowie den Code finden Sie hier.
Literatur:
M. Caserta, M. Sniedovich, S. Voß: Applying the corridor method to a blocks relocation problem. OR Spectrum 33, S. 915 - 929, 2011
M. Caserta, S. Schwarze, S. Voß: A mathematical formulation and complexity considerations for the blocks relocation problem. European Journal of Operational Research, 219(1), S. 96-104, 2012
M. Caserta, S. Schwarze, S. Voß: A New Binary Description of the Blocks Relocation Problem and Benefits in a Look Ahead Heuristic, In: Cotta, C. and Cowling P., editors, Evolutionary Computation in Combinatorial Optimization, volume 5482 of Lecture Notes in Computer Science, S. 37-48. Springer, Berlin (2009)
M. Caserta, S. Schwarze, S. Voß: Container Rehandling at Maritime Container Terminals, In: J.W. Böse (ed): Handbook of Terminal Planning, Operations Research/Computer Science Interfaces Series, Vol. 49, S. 247-269, Springer (2011)
M. Caserta, S. Voß: A corridor method-based algorithm for the pre-marshalling problem.
Lecture Notes in Computer Science 5484, S. 788-797, Springer (2009)
R. Jovanovic, M. Tuba, S.Voß: A multi-heuristic approach for solving the pre-marshalling problem. Central European Journal of Operations Research, online available. [DOI 10.1007/s10100-015-0410-y]
R. Jovanovic; S. Voß: A chain heuristic for the blocks relocation problem. Computers & Industrial Engineering 75 (2014), S. 79 - 86. [DOI 10.1016/j.cie.2014.06.010]
D. Pacino, K. Tierney, S. Voß: Solving the Pre-Marshalling Problem to Optimality with A* and IDA* . Working Paper, University of Hamburg (2013).
S. Schwarze, M. Caserta, S. Voß: Die Kunst des Stapelns – Eine Einführung in das Blocksortierproblem, WiSt, Wirtschaftswissenschaftliches Studium, Vol. 39 (12), S. 576 - 581, 2010.
S. Schwarze, S. Voß: Some remarks on alternative objectives for the blocks relocation problem. Working Paper, University of Hamburg (2015).
E. Zehendner, M. Caserta, D. Feillet, S. Schwarze, S. Voß: An Improved Mathematical Formulation for the Blocks Relocation Problem. European Journal of Operational Research 245, S. 415-422, 2015.
HotFrame - Heuristic OpTimization FRAMEwork
Heutzutage gibt es keine "Bibliothek für Heuristiken" mit Ready-to-use-Komponenten für die heuristische Suche. So erfordert die Anwendung fortgeschrittener Metaheuristiken für einige neue Arten von Problem in der Regel eine von Grund auf neu geplante Umsetzung. Dies hat uns zur Entwicklung eines Anwendungs-Frameworks in C++, genannt HotFrame (Heuristisches Optimierungs Framework) geführt, das eine Integration anpassungsfähiger Komponenten, die verschiedene Metaheuristiken sowie eine architektonische Beschreibung der Zusammenarbeit zwischen diesen Komponenten und anwendungsspezifische Ergänzungen ermöglicht.
Alle typischen anwendungsspezifische Konzepte werden als Objekte (Klassen ) behandelt: Probleme, Lösungen, Nachbarn, Lösungs- und Bewegungsattribute. Metaheuristische Konzepte und deren Bausteine wie beispielsweise Tabu-Kriterien und Diversifikationsstrategien werden ebenfalls als Objekte behandelt. HotFrame setzt Generizität als primären Mechanismus ein, um die jeweiligen Klassen anpassungsfähig zu machen. Das heißt, dass das typische Verhalten von Metaheuristiken ausgeklammert und in generische Klassen gruppiert wird, indem eine statische Typenvariation Anwendung findet. Metaheuristische Template-Klassen werden durch Aspekte wie Lösungsräume und Nachbarschaftsstrukturen parametriert.
HotFrame umfasst Metaheuristiken wie die Basis- und die iterative lokale Suche, Simulated Annealing und ähnliche Verfahren, verschiedene Varianten der Tabu-Suche, Evolutionsverfahren, eine variable Tiefennachbarschaftssuche, Candidate-list-Herangehensweisen sowie auch einige Hybridmethoden. Alle Heuristiken werden in einer konsistenten Art und Weise implementiert, die eine einfache Einbettung von beliebigen Methoden in Anwendungssystemen oder als Teil von fortgeschrittenen und Hybrid- Verfahren erleichtert (das heißt, dass HotFrame nicht als eigenständige Anwendung mit einem perfekt-abgestimmten GUI dienen soll, sondern darauf abzielt eine Funktionalität, die in anderen Anwendungen wieder verwendet werden kann oder nur von der Kommandozeile aufgerufen werden muss, zu bieten).
Sowohl neue Metaheuristiken als auch neue Anwendungen können ins Framework integriert werden. HotFrame umfasst auch einen integrierten Support für Lösungsräume, die als binäre Vektoren, Permutationen oder Zuordnungen von Objekten zu Ressourcen (jeweils in Verbindung mit entsprechenden Standardnachbarschaftsstrukturen, Lösungs- und Bewegungsattributen) dargestellt werden können. Andererseits kann der Benutzer spezielle Anwendungsklassen aus geeigneten integrierten Klassen ableiten oder respektive Klassen von Grund auf mit Bezug auf eine bestimmte Schnittstelle implementieren.
Es gilt allerdings zu beachten, dass der Natur eines Anwendungs-Frameworks zufolge, jede neue Art von Anwendung eine das Framework komplettierende Programmierung in C + + notwendig macht (im Hinblick auf die jeweiligen anwendungsspezifischen Hot-Spots). Es gibt keine Möglichkeit das Framework ohne eine gute Beherrschung von C + + (inkl. Vorlagen) anzuwenden. Bisher konnte HotFrame erfolgreich in einigen Anwendungen aus Forschung und Praxis implementiert werden. Einige dieser Anwendungen sind in den unten angegebenen Artikeln beschrieben. Leider fehlt dem Framework eine umfassende Dokumentation. Weitere Informationen finden Sie in der untenstehenden Literatur oder via e-Mail an stefan.voss@uni-hamburg.de.
Quellcode:
Einmal mehr möchten wir darauf hinweisen, dass HotFrame kein GUI-basiertes Tool, sondern ein C++-Framework ist, das - vielleicht aus guten Gründen - eine Programmierung in C + +erfordert, um es für einige neue Anwendungen nutzbar zu machen. Hier finden Sie eine Einführung [pdf].
Der Kern des Quellcodes kann auf Anfrage bereitgestellt werden. Die Autoren behalten sich das Urheberrecht vor; jedoch steht der Code für wissenschaftliche und Forschungszwecke frei zur Verfügung (natürlich ohne Garantie, da HotFrame nur ein Forschungsprototyp ist). Für die kommerzielle Nutzung, kontaktieren Sie bitte die Autoren.
Literatur:
A. Fink, S. Voß: HotFrame: A Heuristic Optimization Framework. In: S. Voß, D.L. Woodruff (Eds.), Optimization Software Class Libraries, Kluwer, Boston (2002), 81-154. [pdf]
A. Fink, S. Voß: Anwendung von Metaheuristiken zur Lösung betrieblicher Planungsprobleme - Potenziale und Grenzen einer softwaretechnischen Unterstützung (in German). Wirtschaftsinformatik 45 (2003) 4.
A. Fink, S. Voß: Solving the Continuous Flow-Shop Scheduling Problem by Metaheuristics. European Journal of Operational Research, to appear (2004). [pdf]
S. Voß, A. Fink: Efficient Metaheuristics Approaches for the Ring Load Balancing Problem. Proceedings of the 9th International Conference on Telecommunication Systems, Southern Methodist University, Dallas (2001), 243-250.
A. Fink: Software-Wiederverwendung bei der Lösung von Planungsproblemen mittels Meta-Heuristiken . Ph.D. Dissertation. Technische Universität Braunschweig, Shaker, Aachen, 2000.
A. Fink, G. Schneidereit, S. Voß: Solving General Ring Network Design Problems by Meta-Heuristics. In: M. Laguna, J.L. González Velarde (Eds.), Computing Tools for Modeling, Optimization and Simulation (Interfaces in Computer Science and Operations Research), Kluwer, Boston (1999), 91–113. [pdf]
A. Fink, S. Voß: Generic Metaheuristics Application to Industrial Engineering Problems. Computers & Industrial Engineering 37 (1999), 281-284.
A. Fink, S. Voß: Applications of Modern Heuristic Search Methods to Pattern Sequencing Problems. Computers & Operations Research 26 (1999), 17-34. [pdf]
A. Fink, S. Voß, D. Woodruff: Building Reusable Software Components for Heuristic Search. In: P. Kall, H.-J. Lüthi (Eds.), Operations Research Proceedings 1998, Springer, Berlin (1999), 210-219.
A. Fink, S. Voß: HOTFRAME - Heuristische Lösung diskreter Planungsprobleme mittels wiederverwendbarer Software-Komponenten. OR News 4/98, 18-24. [pdf]
Studie Supply Chain Management
Diese Studie befasst sich mit Fragen zur (taktischen und operativen) Produktionsplanung und zum Supply Chain Management mit besonderem Hinblick auf die Durchlaufzeit. Wir möchten die Abhängigkeit zwischen Ressourcenauslastung und Durchlaufzeit untersuchen (sog. "load dependent lead times").
Wir definieren die Durchlaufzeit als die Zeit vom Einlassen eines Auftrages in das Produktionssystem bis zum Erhalt der Ware beim Kunden. Lange Durchlaufzeiten führen zu hohen (Teilkomponenten-) Beständen innerhalb des Produktionssystems und zu hohen Sicherheitsbeständen aufgrund einer erhöhten Unsicherheit über die Produktionsgegebenheiten. Derzeitige, in der Praxis angewandte Planungsmethoden und –instrumente wie Material Requirements Planning (mrp), Material Ressource Planning (MRP II, ERP-Systeme) verwenden eine festgesetzte Durchlaufzeit, welche häufig auf einer „Worst-Case“-Durchlaufzeit basiert, die hohe Pufferzeiten beinhaltet, damit Lieferfristen eingehalten werden können. Daraus kann das sog. „Lead Time Syndrome“ resultieren (siehe dazu Abbildung 1).
Abbildung 1: Lead Time Syndrome
Aufgrund der Unsicherheiten und vorherigen Abweichungen vom Liefertermin besteht die Tendenz, Aufträge früher in das Produktionssystem einzulassen. Dadurch soll gewährleistet sein, dass die Liefertermine mit Sicherheit eingehalten werden können. Die geplante Durchlaufzeit wird also um einen Zeitpuffer erhöht.
Durch das frühere Einlassen von Aufträgen erhöht sich die Anzahl von (Teilkomponenten-) Beständen, was zu einer weiteren Erhöhung der Durchlaufzeit führt, dadurch, dass das System „voller“ wird.
Die wiederholte Erhöhung der tatsächlichen Durchlaufzeit aufgrund der Bestände- und Auftragsanhäufungen im Produktionssystem führt letztendlich zu einer Erhöhung der Variabilität der Durchlaufzeit, einer vergrößerten Unsicherheit über die Produktionsgegebenheiten und besonders über die nun anzuwendende geplante Durchlaufzeit. Dieses Syndrom schaukelt das System in einem sich selbst bestätigendem Teufelskreis immer weiter auf.
Derzeitige MRP- oder ERP-Systeme basieren auf einem sequentiellen Planungsalgorithmus, der weder derartige Unsicherheiten oder Produktionsflussbeschränkungen berücksichtigt.
Außerdem berücksichtigen solche Systeme nicht den nichtlinearen Zusammenhang zwischen Durchlaufzeiten und Ressourcenauslastungen: die Durchlaufzeit von Aufträgen beinhaltet zu einem variierenden (aber sicherlich zu hohem) Anteil Wartezeiten im Produktionssystem. Die Höhe der Wartezeiten ist abhängig von der Auslastung des Systems (wie dies z.B. der Fall am Postschalter bzw. in der Schlange davor ist).
Abbildung 2: nichtlinearer Zusammenhang zwischen Wartezeit und Ressourcenauslastung
Am Anfang der Ressourcenauslastung ist die Wartezeit relativ konstant, jedoch ab einer gewissen Höhe der Ressourcenauslastung, welche ca. bei 80-85% liegt, geht die Wartezeit exponentiell nach oben.
Derzeitige „Planungssysteme“, welche linearen Programmierungsalgorithmen beinhalten, lassen nur eine Ressourcengrenze zu, welche 100% bedeutet und nicht überschritten werden darf. Dass damit aber schon lange vorher die Durchlaufzeit exponentiell anwächst wird nicht berücksichtigt. Dies führt zu Abweichungen zwischen geplanter und tatsächlicher Durchlaufzeit. Konsequenzen aus diesen Abweichungen können wieder das Lead Time Syndrome entfachen.
Mit unserer Studie wollen wir die auslastungsabhängigen Durchlaufzeiten und ihre Faktoren in der Praxis näher untersuchen.
Literatur:
J. Pahl, S. Voß, and D.L. Woodruff. Production planning with load dependent lead times. 4OR: A Quarterly Journal of Operations Research, 3(4):257–302, 2005 (Link: Springerlink)
J. Pahl, S. Voß, D.L. Woodruff. Production Planning with Load Dependent Lead Times: An Update of Research, Annals of Operations Research, 153(1), p. 297-345, 2007 (Link: Springerlink)
J. Pahl, S. Voß, and D.L. Woodruff. Load dependent lead times - from empirical evidence to mathematical modeling. In H. Kotzab, S. Seuring, M. Müller, and G. Reiner, editors, Research Methodologies in Supply Chain Management, 539–554. Physica, Heidelberg, 2005 (Link: Research Methodologies in Supply Chain Management (Springerlink)
TELCO
Die ständig wachsende Nachfrage nach Bandbreite erzeugt konstant neuen Planungsbedarf für Telekommunikationsnetze und die Erweiterung der bestehenden Systeme. State-of- the-art- Langstrecken- und Untergrund- Hochgeschwindigkeitsnetze basieren vor allem auf Synchronous Digital Hierarchy (SDH) oder sein amerikanisches Äquivalent Synchronous Optical Network (SONET ) und Dense Wavelength Division Multiplex ( DWDM). Andererseits wirde eine starke Zunahme an Traffic in den letzten Jahren weitgehend durch den Internet Protocol (IP )-Verkehr verursacht. Traditionell werden IP - Router- basierte Netzwerke und Cross-Connect- basierte Synchronnetzwerke oft für sich geplant und betrieben. Verbunden mit neuen Entwicklungen wie Generalized Multiprotocol Label Switching ( GMPLS ), erkennen Netzbetreiber jedoch zunehmend, dass die Konvergenz dieser beiden Welten erhebliche Vorteile in sich birgt.
Wir arbeiten an mehrschichtigen Netzwerkdesign-Problemen für Hochgeschwindigkeits-Telekommunikationsnetze, die auf SDH, DWDM- und IP-Technologie basieren. Das Netzwerk muss fähig sein einen bestimmten Satz an Anforderungen zu tragen und dabei zum Ziel haben, die Investitionen in die Ausrüstung so gering wie möglich zu halten. Mehrere Problemvarianten mit Pfad -geschützten Anforderungen und spezifischen Gerätearten werden dabei berücksichtigt. Gemischt-ganzzahlige lineare Programmiermodelle und "greedy" Heuristiken (einschließlich einem GRASP-ähnlichen Ansatz) wurden erfolgreich in mehreren realen Probleminstanzen verwendet. Weitere Informationen finden Sie in den untenstehenden Literaturangaben.
Literatur:
H. Höller, S. Voß: Software Tools for a Multilayer Network Design, presented at the IV International Conference on Decision Support for Telecommunications and Information Society, September 2004, warschau, Polen.
H. Höller, S. Voß: A Heuristic Approach for Combined Equipment-Planning and Routing in Multi-layer SDH/WDM Networks, European Journal of Operational Research (2004).
H. Höller, S. Voß, M. Fricke, S. Neidlinger: Vergleich des Einflusses der Bedarfsstrukturen und Netztopologien von SDH/WDM Netzen auf das eingesetzte Schutzverfahren, in: ITG-Fachbericht 182 "Photonische Netze", Vorträge der 5. ITG Fachtagung "Photonische Netze" in Leipzig, VDE Verlag, Berlin (2004), 115-120.
H. Höller, S. Voß: A Mixed Integer Linear Programming Model for Multilayer SDH/WDM Networks, working paper, Universität Hamburg (2003).
H. Höller, S. Voß, M. Fricke, S. Neidlinger: Schichtenübergreifende Netzplanung, in: ITG-Fachbericht 175 "Photonische Netze", Vorträge der 4. ITG Fachtagung "Photonische Netze" in Leipzig, VDE Verlag, Berlin (2003), 21-28.