Navigation

Offene Abschlussarbeiten

 

Thema Betreuer Typ Partner

  • Themennr.: T1804| Zeitraum: SoSe 19| Bewerbungsschluss: flexibel
  • Ziel dieser Arbeit ist es, in Zusammenarbeit mit unseren Spezialisten eine Anwendung im Rahmen eines intelligenten Lizenzierungssystems zu erarbeiten. In diesem Zusammenhang untersuchst du die technischen Voraussetzungen der Azure Cloud und wendest dein Grundlagenwissen im Projektmanagement und der objektorientierten Programmierung an – von Vorteil sind Kenntnisse in C# und .NET Core. Im Zuge der Anfertigung deiner Thesis erhältst du Einblicke in die praktische Arbeit bei aConTech und Unterstützung hinsichtlich der wissenschaftlichen Ausarbeitung deiner Ergebnisse.
Martin Enders Bacholor/Master aConTech

Ausgangssituation:Druckluft wird in Druckluftstationen hergestellt. Druckluftstationen bestehen aus einer kundenindividuellen Zusammenschaltung von Drucklufterzeugern (Kompressoren), Komponenten der Druckluftaufbereitung (Trockner, Filter, Kondensataufbereitung) und Verteilung (Rohrleitungen, Speicher). Druckluftstationen werden typischerweise für eine Lebenszeit von 10 Jahren ausgelegt. Während der Lebenszeit sind an den Komponenten der Druckluftstation wiederkehrend planbare Wartungsmaßnahmen durchzuführen, die einen nicht zu vernachlässigenden Anteil an den Lebenszykluskosten der Druckluftstation ausmachen.Ziel der Arbeit:Ziel der Arbeit ist die Entwicklung und prototypische Umsetzung eines Berechnungsmodells zur Prognose der planbaren Wartungskosten für den gesamten Lebenszyklus auf Basis statistischer Daten über angefallene Wartungskosten in der Vergangenheit.Teilaufgaben der Arbeit:
  • Literaturrecherche zum aktuellen Forschungsstand und in der Praxis angewandten Verfahren zur Prognose von planbaren Wartungskosten
  • Prototypische Umsetzung und Validierung eines ausgewählten Berechnungsmodells auf Grundlage von durch das Unternehmen zur Verfügung gestellter Datensätze

Benötigte Fähigkeiten:

  • Abgeschlossenes Bachelorstudium in Wirtschaftsingenieurwesen oder Wirtschaftsinformatik
  • Erfahrungen in Programmierung (z.B. Java, R, etc.)
  • Kenntnisse in Statistik
Maximilian Bock Master KAESER KOMPRESSOREN

Ausgangssituation:Druckluftstationen werden typischerweise für eine Lebenszeit von 10 Jahren ausgelegt. Während der Lebenszeit sind an den Komponenten der Druckluftstation wiederkehrend planbare Wartungsmaßnahmen durchzuführen, die einen nicht zu vernachlässigenden Anteil an den Lebenszykluskosten der Druckluftstation ausmachen.Ziel der Arbeit:Ziel der Arbeit ist die Entwicklung und prototypische Umsetzung eines Berechnungsmodells zur Prognose der planbaren Wartungskosten für den gesamten Lebenszyklus auf Basis des durch Simulation prognostizierten Laufverhaltens der Komponenten der Druckluftstation.Teilaufgaben der Arbeit:
  • Überführung der Simulationsergebnisse zum Laufverhalten einer Druckluftstation in den notwendigen Wartungsbedarf über den gesamten Lebenszyklus
  • Kostenoptimale Planung der Durchführung der Wartungsmaßnahmen unter Berücksichtigung von unterschiedlichen Kostenfaktoren (bspw. Materialkosten, Arbeitszeit, Anfahrtskosten).
  • Validierung und Benchmarking des Optimierungsergebnisses anhand eines bereits im Einsatz befindlichen Berechnungsmodells.

Benötigte Fähigkeiten:

  • Abgeschlossenes Bachelorstudium in Wirtschaftsingenieurwesen oder Wirtschaftsinformatik
  • Erfahrungen in Programmierung (z.B. Java, R, etc.)
  • Grundkenntnis in der Lösung gemischt ganzzahliger Optimierungsprobleme
Maximilian Bock Master KAESER KOMPRESSOREN

Aktueller Stand:
  • Kennzahlen liegen in unterschiedlichen Datenbanken (ERP, MDE, Qualitätsmanagement) vor.
  • Zur Berechnung von Kennzahlen (z.B. OEE) müssen Daten aus unterschiedlichen Quellen manuell zusammengeführt werden.

Ziel der Arbeit:

  • Analyse und Auswahl geeigneter Werkzeuge zur Datenauswertung
  • Konzeption und entwicklung eines Systems zur automatischen Generierung von Kennzahlen.
  • Konzept zur Anwendung des entwickelten Systems auf weitere Geschäftsbereiche.

Benötigte Fähigkeiten

  • Grundlegende Programmierkentnisse
  • Datenbanken (relational -> SQL)
Martin Enders Bachelor/Master toolcraft MBFZ toolcraft GmbH

(Georgensgmünd)

Die Arbeiten werden in Kooperation mit dem Bosch Werk NuP1 in Nürnberg in der Zweibrücknerstraße ausgeschrieben.Insgesamt werden 2 Arbeiten zu diesem Thema vergeben.Aktueller Stand:
  • Bei den aktuell etablierten Prozesse in der Beschaffung müssen in vielen Prozessschritten manuelle Arbeiten wie z.B. das Abgleichen von Listen durchgeführt werden.

Ziel der Arbeit:

  • Analyse und Optimierung von Beschaffungsprozessen im Werk Nürnberg 1 der Robert Bosch GmbH. Der bestehende Prozess soll analysiert werden und im Rahmen der Arbeit auch erste Verbesserungen umgesetzt werden. Für die Verbesserungen sollen v.a. technische Lösungen implementiert werden um z.B. Medienbrüche zu vermeiden.

Vorraussetzungen:

  • Diese Arbeiten richten sich vor allem an Studierende der Studiengänge WIng und IIS, die Arbeiten eignen sich als Master- und Bachelorarbeit
  • Grundlegende Programmierkenntnisse
Martin Enders Bachelor/Master Bosch (Nürnberg)

Autonomes Fahren ist ein wichtiger Baustein für die Mobilität der Zukunft. Zu diesem Zweck müssen autonome Fahrzeuge in der Lage sein Lenk-, Blink-, Beschleunigungs- und Bremsmanöver längs und quer der Fahrspur ohne menschliches Eingreifen durchzuführen. In der Praxis werden hierfür sog. Fuzzy-Regler eingesetzt mit dessen Hilfe sich unscharfe Mengen (d.h. unpräzise Informationen) verarbeiten lassen.

Ziel der Arbeit ist es, eine Literaturübersicht über aktuelle Entwürfe von Fuzzy-Logik-Systemen für die Lenksteuerung (z.B. bei Überholvorgängen) von autonomen Fahrzeugen aufzuzeigen. Zur Bearbeitung der Abschlussarbeit sind keine Kenntnisse in einer Programmiersprache erforderlich.

Stefan Arnold Bachelor/Master

Industrie 4.0 bietet eine neue Möglichkeit, eine flexible und effiziente Produktion zu erreichen. Der bestehende de-facto Modellierungsstandard BPMN kann allerdings die spezifischen Anforderungen einer flexiblen Produktion nicht vollständig abbilden.Ziel der Arbeit ist es, die bestehende Literatur nach Erweiterungen für BPMN zu analysieren und die vorgestellten Vorschläge zur Erweiterung des Standards zu klassifizieren.
Stefan Arnold Bachelor/Master

Industrie 4.0 bietet eine neue Möglichkeit, eine flexible und effiziente Produktion zu erreichen. Mit Hilfe von Petri Netzen können Maschinenausfälle (auch ohne zusätzlicher Sensoren) zuverlässig vorhergesagt werden.Ziel der Arbeit ist es, die bestehende Literatur nach Ansätzen zur Vorhersage von Maschinenausfälle zu analysieren und hinsichtlich ihrer praktischen Anwendbarkeit mit der sensorgestützten Zustandsüberwachung zu vergleichen.
Stefan Arnold Bachelor/Master

Die Clusteranalyse von großen, komplexen Datensätzen ist mit etablierten Methoden wie k-Means nicht effizient lösbar.Ziel der Arbeit ist es, eine Übersicht über aktuelle, besser skalierbare Ansätze zur Partitionierung von Big Data aufzuzeigen, z.B. O-Cluster.
Stefan Arnold Bachelor/Master

Unternehmen aus fast allen Branchen setzen im Projektmanagement zur Unterstützung ihrer Mitarbeiter auf Software mit deren Hilfe die Kommunikation und der Austausch von digitalisierten Ressourcen vereinfacht wird. In Anbetracht dessen verzeichnet der Markt für Projektmanagement-Software seit einigen Jahren ein rapides Wachstum.Ziel der Arbeit ist es, häufig eingesetzte Software wie Slack, Jira oder Trello anhand ihrer Funktionalität und Anwendungsbereiche zu vergleichen.
Stefan Arnold Bachelor/Master

Crowdsourcing Plattform ist nicht gleich Crowdsourcing Plattformen. In Kontext von maschinellem Lernen existieren viele verschiedene Plattformen (u.a. Kaggle, CrowdAnalytix, DrivenData) die sich insbesondere in ihrer Gestaltung der gehosteten Crowdsourcing Wettbewerbe unterscheiden.Ziel der Arbeit ist es, die Parameter zur Gestaltung von Crowdsourcing Wettbewerben, z.B. Höhe und Verteilung der Belohnung („winner-takes-all“) miteinander zu vergleichen.
Stefan Arnold Bachelor/Master

Künstliche Neuronale Netze (KNN) sind inspiriert durch das menschliche Gehirn. Mit Hilfe von KNN lassen sich verschiedene Problemstellungen computerbasiert lösen. In der Praxis müssen bei der Erstellung eines KNN einige Entscheidungen getroffen werden, z.B.: Welche Architektur eignet sich für einen gegebenen Anwendungsfall? Welche der etablierten Aktivierungsfunktionen ist am effizientesten, welche am stabilsten? Welche Methoden zur Initialisierung, Optimierung und Regularisierung sollten eingesetzt werden? Ziel der Arbeit(en) ist es, die Bestandteile eines KNN – jeweils getrennt voneinander – anhand der bestehenden Literatur zur untersuchen. Die Erstellung der Arbeit erfordert keine Kenntnisse in einer Programmiersprache, allerdings werden grundlegende Kenntnisse in Mathematik vorausgesetzt (z.B. Monotonie einer Funktion).Nähere Informationen zu den einzelnen Arbeiten per E-Mail.
Stefan Arnold Bachelor/Master

Künstliche Neuronale Netze (KNN) bestehen aus miteinander verbunden Neuronen. Neuronen in traditionellen KNN sind durch eine statische, kontinuierliche und nichtlineare Aktivierung charakterisiert. Biologische Neuronen verwenden jedoch diskrete Spitzen, um Informationen zu berechnen und zu übertragen, zusätzlich sind die Zeiten der Spitzen sowie die Raten der Spitzen von Bedeutung. Spiking Neural Networks (SNN), basierend auf der Verarbeitung von Impulsen statt Matrizen, sind daher biologisch realistischer als ANNs.Ziel der Arbeit ist es, die praktische Anwendbarkeit von SNNs mithilfe einer Literaturanalyse zu identifizieren, indem die wesentlichen Eigenheiten von SNNs (nämlich die Repräsentation der Information in Impulse und die dazugehörige Optimierung) konzeptualisiert und inhaltlich kurz beschrieben werden.
Stefan Arnold Bachelor/Master

In machine learning, microarray data containing the expression levels of thousands of genes provide the input to a wide variety of statistical modeling efforts, including classification and clustering. For the most part, these microarrays typically contain of very few observations on very many features; therefore, it is important to investigate existing feature selection methods which try to reduce the dimensionality of the search space.
Stefan Arnold Bachelor/Master

In a global economic crime survey carried out last year, almost half of the interviewed companies claimed to have experienced fraud, such as credit card fraud. In order to detect fraud preventively, machine learning algorithms are used. Machine learning, however, requires balanced datasets to discriminate fraudulent from non-fraudulent samples. In practice, only 0.17% of all credit card transaction are fraudulent. For this reason, several techniques have been proposed to cope with imbalanced datasets. Most commonly, synthetic oversampling is applied on the fraudulent class until its size equals the size of the non-fraudulent class.
Stefan Arnold Bachelor/Master

Beschreibung: Künstliche Intelligenz ist auf dem Vormarsch und hat immer größeren Einfluss auf die weltweite Wirtschaft (link).Dabei spielt Maschinelles Lernen eine große Rolle in der Entwicklung der der Technologie in den letzten 10 Jahren. Vor allem Deep Reinforcement Learning gilt als eine Möglichkeit wirklich intelligente Systeme zu realisieren und hat bereits beeindruckende Errungenschaften erbracht.

Ziel der Arbeit: Ziel der Arbeit ist eine systematische Analyse der Applikationen und Anwendungen von (Deep) Reinforcement Learning in Unternehmen und Organisationen. Dabei sollen Eigenschaften, Voraussetzungen und Erfolgsfaktoren betrachtet werden. Im Rahmen der Arbeit wird dafür eine systematische Literaturrecherche durchgeführt sowie die Ergebnisse dieser analysiert und dargestellt.

 

Voraussetzungen:

  • Diese Arbeit richtet sich vor allem an Studierende der Studiengänge IIS und eignet sich vor allem als Masterarbeit
  • Grundlegende Fähigkeiten in der Literaturrecherche und Verständnis für Algorithmen

Markus Schmitz Master