Refine
Has Fulltext
- yes (5)
Is part of the Bibliography
- yes (5)
Document Type
- Doctoral Thesis (5)
Language
- German (5) (remove)
Keywords
- Optimierung (5) (remove)
Röntgencomputertomographie (CT) hat in ihrer industriellen Anwendung ein sehr breites Spektrum möglicher Prüfobjekte. Ziel einer CT-Messung sind dreidimensionale Abbilder der Verteilung des Schwächungskoeffizienten der Objekte mit möglichst großer Genauigkeit. Die Parametrierung eines CT-Systems für ein optimales Messergebnis hängt stark vom zu untersuchenden Objekt ab. Eine Vorhersage der optimalen Parameter muss die physikalischen Wechselwirkungen mit Röntgenstrahlung des Objektes und des CT-Systems berücksichtigen. Die vorliegende Arbeit befasst sich damit, diese Wechselwirkungen zu modellieren und mit der Möglichkeit den Prozess zur Parametrierung anhand von Gütemaßen zu automatisieren. Ziel ist eine simulationsgetriebene, automatische Parameteroptimierungsmethode, welche die Objektabhängigkeit berücksichtigt. Hinsichtlich der Genauigkeit und der Effizienz wird die bestehende Röntgensimulationsmethodik erweitert. Es wird ein Ansatz verfolgt, der es ermöglicht, die Simulation eines CT-Systems auf reale Systeme zu kalibrieren. Darüber hinaus wird ein Modell vorgestellt, welches zur Berechnung der zweiten Ordnung der Streustrahlung im Objekt dient. Wegen des analytischen Ansatzes kann dabei auf eine Monte-Carlo Methode verzichtet werden. Es gibt in der Literatur bisher keine eindeutige Definition für die Güte eines CT-Messergebnisses. Eine solche Definition wird, basierend auf der Informationstheorie von Shannon, entwickelt. Die Verbesserungen der Simulationsmethodik sowie die Anwendung des Gütemaßes zur simulationsgetriebenen Parameteroptimierung werden in Beispielen erfolgreich angewendet beziehungsweise mittels Referenzmethoden validiert.
Humane artifizielle Vollhautmodelle gewinnen im Bereich des Tissue Engineerings zunehmend an Bedeutung und werden mittlerweile in vielen verschiedenen Fachbereichen erforscht, optimiert und sogar als die Grundlagenforschung unterstützende Tierersatzmodelle angewendet. Dieses geht mit hohen Ansprüchen an Qualität und Reproduzierbarkeit dergleichen einher. In der vorliegenden Arbeit wurde erstmals der Einfluss von Kulturbedingen und Spendermaterial auf die Qualität humaner in vitro hergestellter Vollhautmodelle systematisch untersucht. Dazu wurde zunächst ein Katalog an histomorphologischen Qualitätskriterien erarbeitet, der sich an echten humanen Hautbiopsien orientierte und eine Gewichtung dieser Kriterien im Hinblick auf die Verwendung als echte Hautersatzmodelle erlaubte. Für die Herstellung der Hautmodelle wurden die etablierten Medien KGM 2 , KGM 2 variant und EpiLife ® und deren Kultivierungsprotokolle verwendet. Die zelluläre Grundlage der vorliegenden Untersuchungen bildeten die Präputien von sechzehn Kindern nach Zirkumzision. Keratinozyten und Fibroblasten wurden isoliert und mit den drei oben genannten Medien und zugrundeliegenden Kultivierungsprotokollen wurden in jeweils dreifacher Ausführung insgesamt 144 humane Vollhautmodelle erstellt, welche dann entsprechend des Bewertungskataloges beurteilt wurden. Die zugrunde gelegten Bewertungs- und Gütekriterien entsprachen histomorphologischen Parametern. Dazu gehörten die Dicke von Epidermis und Dermis, die Adhärenz zwischen Epidermis und Dermis sowie die Abwesenheit von Zellkernen im Stratum corneum der Epidermis.
Für die Analyse der Einflussfaktoren Spenderalter und Kultivierungsmedium wurden Regressionsmodelle mittels Generalized Estimating Equations angewandt. Das Spenderalter und das Kultivierungsmedium wurden dabei unabhängig voneinander in einer univariaten Analyse untersucht. Bei der Untersuchung des Einflusses des Kulturmediums auf die terminale Differenzierung innerhalb der Epidermis zeigte sich, dass durch Kultivierung mit EpiLife ® signifikant weniger Vollhautmodelle mit Zellkernen im Stratum corneum hergestellt wurden, im Vergleich zur Kultur mit KGM 2 oder KGM 2 variant. Der Einfluss des Kulturmediums auf die Epidermis- und Dermis-Dicke war jeweils nicht signifikant. Trotzdem zeigte sich ein Trend mit einer dünneren Epidermis und Dermis nach EpiLife ® -Kultivierung. Bei der Analyse des Spenderalters konnte ein positiver Einfluss eines jüngeren Spenders auf die Dicke der Epidermis im Vollhautmodell gezeigt werden. Die Epidermis-Dicke war signifikant größer, je jünger ein Vorhautspender war. Ein höheres Spenderalter dagegen führte zu signifikant weniger Ablösung der Epidermis von der Dermis. Keinen Einfluss hatte das Spenderalter auf die Dermis-Dicke und auf die Abwesenheit von Zellkernen in der Hornschicht. Die drei signifikanten Assoziationen in der univariaten Analyse wurden in einer multivariablen Analyse untersucht. Hierbei zeigte sich der Einfluss des Spenderalters auf die Epidermis-Dicke und die dermo-epidermale Adhäsion unter Einfluss der Kulturmedien, der Abwesenheit von Zellkernen in der Hornschicht und der Dermis-Dicke als Kovariablen ebenfalls signifikant. Auch blieb der Einfluss von EpiLife ® auf die Abwesenheit von Zellkernen in der Hornschicht in der multivariablen Analyse signifikant. Es konnte hierbei außerdem ein signifikanter Einfluss der Dermis auf die Epidermis mit Schrumpfung der Epidermis bei Größerwerden der Dermis gezeigt werden. In einer durchgeführten komplexen statistischen Analyse mittels General Linear Model wurde der Einfluss einer Spender-Medium-Interaktion analysiert, ohne das Spenderalter als Variable mit einzubeziehen. Es zeigte sich ein signifikanter Einfluss der Interaktion des Spenders mit dem Kulturmedium auf die Epidermisund Dermis-Dicke und damit auf die Qualität der in vitro hergestellten Vollhautmodelle. Einerseits bestand also ein unabhängiger Einfluss des Spenderalters und des Mediums, andererseits gab es einen Einfluss von der Abhängigkeit einer optimalen Spender-Medium-Kombination auf die Vollhautmodellqualität.
Zusammenfassend konnte in der vorliegenden Arbeit erstmals das komplexe Zusammenspiel von Spenderfaktoren und Kultivierungsbedingungen und deren Auswirkungen auf die Qualität von humanen Vollhautmodellen aufgezeigt werden. Diese Ergebnisse haben Relevanz für den Einsatz dieser Modelle als Tierersatzmodelle in der Forschung. Unter Berücksichtigung dieser Ergebnisse können optimierte organotypische Vollhautmodelle in vitro hergestellt werden, sodass zukünftig komplexere Hautmodelle generiert werden können. In einer Folgearbeit sollen die hier erarbeiteten Grundlagen helfen, Hautmodelle in der Erforschung der akuten GvHD der Haut zu bearbeiten.
Die Produktionsplanung und -steuerung (PPS) ist für nahezu jedes fertigende Unternehmen – sowohl im Hinblick auf Lagerbestands- und Kostenoptimierung, als auch für eine termintreue Lieferbereitschaft sowie die dadurch bedingte Kundenzufriedenheit – von zentraler Bedeutung und leistet somit einen erheblichen Beitrag für den Erhalt bzw. den Ausbau der Wettbewerbsfähigkeit. Dabei stellen die Interdependenzen der verschiedenen Teilbereiche innerhalb der PPS sowie zwischen den vor- und nachgelagerten Planungsaufgaben eine – im Zuge der zunehmend angestrebten Integration der gesamten Wertschöpfungskette – immer größer werdende Herausforderung dar.
Diese Arbeit widmet sich mit der Planungsaufgabe der Ermittlung kostenminimaler Losgrößen bei simultaner Festlegung der optimalen Produktionsreihenfolge (Economic Lot Scheduling Problem (ELSP) oder Lossequenzproblem) einem zentralen Teilbereich der PPS. Diese Problemstellung ist insbesondere für den Fall einer Serien- und Sortenfertigung von Relevanz, bei dem mehrere, artverwandte Erzeugnisse im Wechsel auf einer Fertigungsanlage mit beschränkter Kapazität bearbeitet werden. Da die Bestimmung der Fertigungslosgrößen und der Produktionsreihenfolge bei der Ermittlung einer überschneidungsfreien Maschinenbelegung unmittelbar miteinander korrelieren, sollte deren Planung zur bestmöglichen Ausnutzung der Kapazitäten und Minimierung der Kosten nicht sukzessiv, sondern weitestgehend simultan erfolgen. Durch diesen Zusammenhang entsteht eine im Allgemeinen nicht triviale und lediglich mittels spezieller Heuristiken adäquat lösbare Planungsaufgabe. Letztere soll in dieser Arbeit um die Möglichkeit des Lossplittings im Sinne einer überlappenden Fertigung (Teil- oder Transportlosbildung) erweitert werden. Dieses logistische Konzept innerhalb der Produktion geht im Allgemeinen sowohl mit einer Verkürzung der Durchlaufzeiten, als auch mit einer Verringerung der Lagerbestände einher.
Vor diesem Hintergrund findet eingangs zunächst eine allgemeine Einordung bzw. Abgrenzung der Aufgaben und des Umfelds der simultanen Losgrößen- und Reihenfolgeplanung im Rahmen der PPS statt. Anschließend werden die prinzipiell unterschiedlichen Ansätze zur Lösung des ELSP, mit ihren jeweils individuellen Annahmen und Eigenschaften dargestellt. Hierbei wird insbesondere auf die chronologische Entwicklung des Basisperiodenansatzes (BPA) in der Literatur eingegangen, da dieser im weiteren Verlauf der Arbeit eine zentrale Rolle einnimmt. Abschließend werden die Zusammenhänge zwischen den strukturell verschiedenen Lösungsansätzen zum ELSP nochmals zusammenfassend erörtert sowie eine Auswertung zu deren relativer Verbreitung in der wissenschaftlichen Literatur präsentiert.
Nach der Erörterung zweier alternativer Lagerhaltungsmodelle zur Berücksichtigung von Lossplitting im Sinne einer überlappenden Fertigung bildet deren Integration in ausgewählte Lösungsansätze zum ELSP den Hauptteil der Arbeit. Hierfür wird zur Identifizierung und Eingrenzung potentiellen Forschungsbedarfs zunächst ein dedizierter Literaturüberblick gegeben, der eine Kategorisierung der bis dato im engeren Sinne relevanten Veröffentlichungen beinhaltet. Die daraus abgeleiteten Forschungsziele bzw. -fragen werden anschließend in fünf Punkten konkretisiert und beinhalten im Kern die Entwicklung von Modellen zur Berücksichtigung des Lossplittings im ELSP. Dabei wird sowohl das Common Cycle Modell (CCM), als auch der Ansatz variierender Losgrößen (TVL) einbezogen, jedoch steht vor allem eine Heuristik nach dem BPA im Fokus der Ausführungen. Des Weiteren werden bestehende Ansätze zur Integration der Teillosbildung im CCM aus einer neuen Perspektive betrachtet und bezüglich eines eventuellen Optimierungspotentials des Lösungswegs analysiert. Zu den neu entwickelten bzw. erweiterten Modellen werden für die Lösungsfindung Algorithmen formuliert und implementiert, die für beide Alternativen der Teillosbildung eine für alle Produkte einheitliche oder sortenindividuelle Transporthäufigkeit erlauben.
Die Evaluation der entwickelten Modelle erfolgt sowohl anhand von ausgewählten Referenzdatensätzen aus der Literatur als auch auf Basis von insgesamt 4000 zufallsgenerierten Parameterkonstellationen. Dabei liegt der Schwerpunkt der Auswertungen auf einer Ergebnisanalyse hinsichtlich der Höhe des Kosteneinsparungspotentials, das durch die Teillosbildung im BPA zum einen gegenüber der „geschlossenen Fertigung“ und zum anderen im Vergleich zu bestehenden Ansätzen mit Lossplitting im CCM erzielbar ist. Die diesbezüglich gewonnenen Erkenntnisse sowie weitere, aus den Resultaten ableitbare Zusammenhänge werden umfassend diskutiert und interpretiert, so dass letztendlich eine Grundlage zur Ableitung von Handlungsempfehlungen gelegt wird. Die Arbeit schließt mit einem Resümee und der kritischen Würdigung der Forschungsziele bzw. -fragen sowie einem Ausblick auf weiteren Forschungsbedarf.
Die Magnet-Resonanz (MR)-Bildgebung ist mit vielfältigen Anwendungen ein nicht mehr wegzudenkendes Instrument der klinischen Diagnostik geworden. Dennoch führt die stark limitierte Messzeit häufig zu einer Einschränkung der erzielbaren räumlichen Auflösung und Abdeckung, einer Beschränkung des Signal-zu-Rauschverhältnis (Signal-to-Noise Ratio) (SNR) sowie einer Signalkontamination durch benachbartes Gewebe. Bereits bestehende Methoden zur Reduktion der Akquisitionszeit sind die partielle Fourier (PF)-Bildgebung und die parallele Bildgebung (PPA). Diese unterscheiden sich zum einen im Schema zur Unterabtastung des k-Raums und zum anderen in der verwendeten Information zur Rekonstruktion der fehlenden k-Raum-Daten aufgrund der beschleunigten Akquisition. Während in der PPA die unterschiedlichen Sensitivitäten einer Mehrkanal-Empfangsspule zur Bildrekonstruktion verwendet werden, basiert die PF-Bildgebung auf der Annahme einer langsamen Variation der Bildphase. Im ersten Abschnitt dieser Arbeit wurde das Konzept der Virtuellen Spulendekonvolutions (Virtual Coil Deconvolution) (VIDE)-Technik vorgestellt, das das gleiche Schema der Unterabtastung des k-Raums wie die konventionelle PPA verwendet, aber anstelle der Spulensensitivität die Bildphase als zusätzliche Information zur Herstellung der fehlenden Daten der beschleunigten Bildgebung verwendet. Zur Minimierung der Rekonstruktionsfehler und der Rauschverstärkung in der VIDE-Technik wurde ein optimiertes Akquisitionsschema entwickelt. Die Kombination der PPA und PF-Bildgebung zur Beschleunigung der MR-Bildgebung wird durch das unterschiedliche Unterabtastschema erschwert. Wie Blaimer et al. in ihrer Arbeit gezeigt haben, kann das Prinzip der VIDE-Technik auf Mehrkanal-Spulen übertragen werden, sodass mit dieser Methode die PPA und die PF-Bildgebung optimal vereint werden können. Dadurch kann die Rauschverstärkung aufgrund der Spulengeometrie ohne zusätzliche Messungen deutlich reduziert werden. Obwohl die Abtastung des k-Raums in der MR-Bildgebung sehr variabel gestaltet werden kann, wird bis heute nahezu ausschließlich die regelmäßige k-Raum-Abtastung in der klinischen Bildgebung verwendet. Der Grund hierfür liegt, neben der schnellen Rekonstruktion und der einfachen Gestaltung der Variation des Bild-Kontrasts, in der Robustheit gegen Artefakte. Allerdings führt die regelmäßige k-Raum-Abtastung zu einer hohen Signalkontamination. Die Optimierung der SRF durch nachträgliches Filtern führt jedoch zu einem SNR-Verlust. Die dichtegewichtete (DW-) Bildgebung ermöglicht die Reduktion der Signal-Kontamination bei optimalem SNR, führt aber zur einer Reduktion des effektiven Gesichtsfelds (FOV) oder einer Erhöhung der Messzeit. Letzteres kann durch eine Kombination der PPA und DW-Bildgebung umgangen werden. Der zweite Teil dieser Arbeit befasste sich mit neuen Aufnahme- und Rekonstruktionsstrategien für die DW-Bildgebung, die eine Erhöhung des FOVs auch ohne Einsatz der PPA erlauben. Durch eine Limitierung der minimalen k-Raum-Abtastdichte konnte durch eine geringfügige Reduktion des SNR-Vorteils der DW-Bildgebung gegenüber der kartesischen, gefilterten Bildgebung eine deutliche Verringerung der Artefakte aufgrund der Unterabtastung in der DW-Bildgebung erreicht werden. Eine asymmetrische Abtastung kann unter der Voraussetzung einer homogenen Bildphase das Aliasing zusätzlich reduzieren. Durch die Rekonstruktion der DW-Daten mit der Virtuelle Spulendekonvolution für die effektive DW-Bildgebung (VIDED)-Bildgebung konnten die Artefakte aufgrund der Unterabtastung eliminiert werden. In der 3d-Bildgebung konnte durch Anwendung der modifizierten DW-Bildgebung eine Steigerung des FOVs in Schichtrichtung ohne Messzeitverlängerung erreicht werden. Die nicht-kartesische k-Raum-Abtastung führt im Fall einer Unterabtastung zu deutlich geringeren, inkohärenten Aliasingartefakten im Vergleich zur kartesischen Abtastung. Durch ein alternierendes DW-Abtastschema wurde eine an die in der MR-Mammografie verwendete Spulengeometrie angepasste k-Raum-Abtastung entwickelt, das bei gleicher Messzeit die räumliche Auflösung, das SNR und das FOV erhöht. Im dritten Teil dieser Arbeit wurde die Verallgemeinerung der DW-Bildgebung auf signalgewichtete Sequenzen, d.h. Sequenzen mit Magnetisierungspräparation (Inversion Recovery (IR), Saturation Recovery (SR)) sowie Sequenzen mit einer Relaxation während der Datenaufnahme (Multi-Gradienten-Echo, Multi-Spin-Echo) vorgestellt, was eine Steigerung der Bildqualität bei optimalem SNR erlaubt. Die Methode wurde auf die SR-Sequenz angewendet und deren praktischer Nutzen wurde in der Herz-Perfusions-Bildgebung gezeigt. Durch die Verwendung der in dieser Arbeit vorgestellten Technik konnte eine Reduktion der Kontamination bei einem SNR-Gewinn von 16% im Vergleich zur konventionellen, kartesischen Abtastung bei gleicher Messzeit erreicht werden.
Grundvoraussetzung einer erfolgreichen zementlosen Endoprothesenverankerungen ist eine hohe Primärstabilität durch formschlüssige Implantation. Nach erfolgreicher Primärfixation entscheidet über die Langzeitfunktion neben der Verschleißsituation insbesondere die funktionelle Spannungsverteilung an der Implantatoberfläche und im angrenzenden Knochen. Um optimale Bedingungen im Bereich der Grenzfläche zwischen Werkstoff und Biosystem zu schaffen, ist die präzise Präparation des Knochens entscheidend. Hierbei spielt neben dem Operateur und der Beschaffenheit des Knochens das verwendete System zur Zerspanung, bestehend aus der Säge und dem Sägeblatt, eine wichtige Rolle. Oszillierende Sägen werden neben der Gipsbehandlung ausschließlich bei der Knochenbearbeitung verwendet, wobei Fragestellungen zu Leistungs- und Qualitätssteigerung auftreten. Ansatzpunkt ist unter anderem das Sägeblatt. Die Modellvielfalt der auf dem Markt erhältlichen Sägeblätter erschwert die richtige Auswahl. Bei verschiedenen Modellen und deren unterschiedlichen Ausführungen ist es schwierig, Vergleiche anzustellen und Verbesserungen einzuführen. Die Charakteristik eines Sägeblattes ist durch die Schärfe beschrieben, um eine schnelle Zerspanung des Knochens zu gewährleisten, und durch die Steifigkeit des Blattes, um eine möglichst geringe Abweichung aus der Sägelinie sicherzustellen. Die Schärfe des Sägeblattes ist von der Zahnform und -geometrie abhängig. Die Steifigkeit ist abhängig von Material, Geometrie, Ausführung und Eigenschwingung/Eigenform des Blattes. Modifikationen an diesem System führen auch zu einer veränderten Eigenform des Sägeblattes. In der folgender Arbeit wurden verschiedene Ausführungen von Sägeblättern hinsichtlich ihrer Eigenform charakterisiert. In einem praktischen Versuch wurde versucht, den Einfluss des Sägeblattes auf die Vibration im Knochen von dem der Säge abzugrenzen. Ziel der Studie war daher die Berechnung der Eigenform der Sägeblätter, die experimentelle Überprüfung der Eigenform und die Abgrenzung des Einflusses von Sägeblatt und Säge auf die Vibration beim Sägevorgang. 9 verschiedene Sägeblätter unterschiedlicher Form und Geometrie wurden untersucht. Zunächst wurde eine Eigenformberechnung mittels der Finiten Elemente Methode durchgeführt. Anschließend erfolgte die Eigenformbestimmung im Shakerversuch. Um den Einfluss der Sägeblätter auf die Beschleunigung im Knochen von dem der Säge abzugrenzen erfolgte die Beschleunigungsmessung in einem Sägeprüfstand. Bezüglich des Eigenschwingungsverhalten konnten die Sägeblätter drei Gruppen zugeordnet werden. Als optimal erweist sich anhand der Eigenformberechnung und -bestimmung ein Sägeblatt mit 2 Löchern und einer Prägung von 136 bar. Hier zeigte sich eine Reduzierung der Maximal-Amplitude von 15,3 % und der Minimal-Amplitude von 23,5 %.