Jetzt zum Sommersemester an der TU Hamburg bewerben! Bewerbungen für deutschsprachige und ausgewählte englischsprachige Masterprogramme sind bis zum 15. Januar möglich.

Projekt P-Vitra am Institut für Technische Logistik - Trainingsszenarien für die Produktion, Montage und Logistik

Eine umfassende und realitätsnahe Ausbildung von Personal in der Produktion, Montage und Logistik ist eine wichtige Voraussetzung, um zukünftigen gesellschaftlichen und industriellen Anforderungen gerecht zu werden. Bisher wird das Personal aufwändig und kostenintensiv in Schulungszentren theoretisch und praktisch unterwiesen, um bestehendes Personal fortzubilden bzw. neue Mitarbeiter*innen anzulernen. Nach abgeschlossener Ausbildung in Schulungszentren kommt es meist zu begleiteten, aber dennoch aufwendigen und teilweise fehleranfälligen „on-the-job“ Trainingseinheiten im laufenden Betrieb an kundenspezifischen Produkten. Um diesen Problemen zu begegnen, wurden vermehrt Virtual Reality (VR) basierte Trainingslösungen entwickelt, welche jedoch auch sehr aufwendig durch VR-Entwickler erarbeitet werden mussten. Daher entwickelt das Institut für Technische Logistik (Prof. Kreutzfeldt, W-06) in Zusammenarbeit mit Industriepartnern eine Methodik und ein Prototyp zur Generierung von Trainingsszenarien für die Produktion, Montage und Logistik.

Das System ermöglicht es der Produktionsplanung, Trainingsszenarien aufwandsarm mittels eines grafischen Dashboards zu modellieren und nachträglich zu adaptieren. Die notwendigen Informationen werden aus bestehenden CAD-Modellen und Arbeitsinformationssystemen gewonnen und integriert. Die angelegten Trainingsszenarien können dann in einer virtuellen Umgebung vom operativen Personal absolviert werden. Das Projekt P-Vitra ist durch das Call for Transfer Programm der Stadt Hamburg gefördert.

 

Virtuelle Trainingsumgebung

Blockchain für die Kreislaufwirtschaft

Das Institut für Logistik und Unternehmensführung (LogU, W-02) arbeitet seit Dezember 2020 unter der Leitung von Prof. Dr. Dr. h. c. Wolfgang Kersten gemeinsam mit der Kühne Logistics University (KLU) an dem IUTA-Projekt „Blockchain für die Kreislaufwirtschaft“ (BlinK). Ziel des durch das Bundesministerium für Wirtschaft und Klimaschutz im Rahmen der industriellen Gemeinschaftsforschung (AIF) geförderten Projektes ist es, digitale Zwillinge auf Basis der Blockchain-Technologie zu konzeptionieren und in Bezug auf den Nutzen für Supply Chains der Kreislaufwirtschaft zu evaluieren.

Bereits abgeschlossen ist die Entwicklung einer Produktkategorisierung in Form eines morphologischen Kastens, welche die Entscheidung unterstützen soll, wie am Ende der Nutzungszeit von Produkten weiter mit diesen verfahren werden kann. Da diese Kategorisierung zugleich die Grundlage für die im digitalen Zwilling abzubildenden Informationen darstellt, wurden die Inhalte der Produktkategorisierung eingehend mit Expert*innen validiert. Derzeit werden im Rahmen des Projekts Interviews durchgeführt, um Anforderungen an digitale Zwillinge in Form eines User Story Mappings sowie Implikationen der Einführung Blockchain-basierter digitaler Zwillinge abzuleiten. Schlussendlich sollen darauf aufbauend digitale Zwillinge beispielhaft konzeptioniert werden und eine Entscheidungshilfe für kleine und mittlere Unternehmen entstehen, welche über die mit dem Einsatz Blockchain-basierter digitaler Zwillinge verbundenen technischen Umfänge, strategischen Implikationen sowie ökologischen und ökonomischen Effekte informiert.

 


ConFlowGen – Containerflüsse synthetisch generieren

Daten werden häufig als das Erdöl des 21. Jahrhunderts bezeichnet. Diese Metapher beschreibt nicht nur die Wichtigkeit für den Alltag, sondern lässt sich auch auf die ungleiche Verteilung der Daten übertragen. Denn diese schlummern zum Teil ungehoben in den Unternehmen, während die quantitativ arbeitenden Wissenschaften aus ihnen gerne neue Einsichten gewinnen würde. Die Informationen, die z. B. in betrieblichen Prozessdaten stecken, würden dabei helfen, innovative Ideen, die an den Lehrstühlen entstehen, mal auf den Prüfstand zu stellen. Auf Basis der Daten könnten realistische Szenarien erstellt werden, welche in Simulationsstudien oder numerische Experimente einfließen könnten. Aber weswegen werden die Daten von den Unternehmen denn zurückgehalten? Gerade weil die Daten (selbst noch in anonymisierter Form) viele Informationen enthalten, gibt es von manchen Seiten Bedenken, dass die eigene Verhandlungsposition als Unternehmen gegenüber den Geschäftspartnern geschwächt werden könnte. Genau dieser Punkt führt in der Praxis zu einer gewissen Vorsicht, wobei es, wie die Verteilung der Fallstudien über die Welt zeigt, auch klar erkennbare Länderunterschiede gibt.

Wie können wir denn ohne die Unterstützung eines Unternehmens dennoch neue Lösungen auf ihre Praxistauglichkeit untersuchen? Für den speziellen Fall vom Yard-Betrieb auf Container-Terminals haben wir am Institut für Maritime Logistik (W-12) den synthetischen Datengenerator ConFlowGen entwickelt. Über eine Python-API werden Fahrpläne bzw. Ankunftsverteilungen ebenso wie Verteilungen für die Charakteristika der Container angegeben. Außerdem werden die vorrangigen Flussrichtungen definiert, sprich mit welchem Verkehrsmittel ein Container voraussichtlich den Terminal wieder verlässt. ConFlowGen enthält eine Reihe von kurierten Verteilungen, die als Standard hinterlegt sind, aber über die API überschrieben werden können. Die Eingaben ebenso wie die erzeugten Daten werden in einer SQLite-Datenbank festgehalten und erlauben so einen einfachen Datenaustausch. Ebenfalls wird ein Datenexport nach CSV und Excel unterstützt.

Mit dem Tool ConFlowGen hoffen wir, uns nicht nur am eigenen Institut das wissenschaftliche Arbeiten zu vereinfachen, sondern auch Feedback aus der wissenschaftlichen Community zu erhalten. Eine gemeinschaftliche Weiterentwicklung des Tools wird angestrebt. Auf diesem Weg hoffen wir, dass in den wissenschaftlichen Publikationen in Zukunft neben den innovativen Lösungen selbst auch vermehrt in den Fokus gerückt wird, wie diese genau auf ihre Praxistauglichkeit überprüft worden sind. Das Teilen der Daten und Annahmen vereinfacht die kritische Auseinandersetzung mit den Ergebnissen und fördert die Transparenz in der Forschung.

Weiterführende Informationen finden Sie hier: conflowgen.readthedocs.io/en/latest/background.html


Computersimulation als Forschungsmetheode: Die Agenten-Basierte Modellierung

Achter S, Borit M, Chattoe-Brown E, and Siebers PO (in press). „RAT-RS: A Reporting Standard for Improving the Documentation of Data Use in Agent-Based Modelling“. International Journal of Social Research Methodology.

Die Computersimulation als Forschungsmethode ist einer der Schwerpunkte am Institut für Management Accounting und Simulation (W-01) unter der Leitung von Prof. Matthias Meyer. Neben der Verwendung der Simulationsmethodik selbst gehört auch die Förderung ihrer sorgfältigen Anwendung und Weiterentwicklung zum zentralen Anliegen des Institutes und wird in deren Zeitschriftenbeiträgen regelmäßig thematisiert. Mit einem Betrag in der renommierten Zeitschrift „International Journal of Social Research Methodology“, wird diese Bemühung im Bereich der Agenten-Basierten Modellierung (ABM) fortgeführt.

Ein agentenbasiertes Modell stellt ein spezifisches Simulationsparadigma dar. Dabei werden "Agenten" (jegliche Akteure sozialer Systeme mit Handlungsfähigkeit, wie individuelle Entscheidungsträger oder Unternehmensorganisationen) explizit in ihrer Interaktion miteinander und mit ihrer Umwelt dargestellt. Solche Modelle sind abstrakte Repräsentationen von realen Phänomenen, für deren Entwicklung häufig eine Vielzahl von unterschiedlichen Datenformaten (Interviews, Surveys, Observationen, GPS-Tracking, Experimente) in einem Modell zusammengebracht werden. Dies drückt sich auch in dem interdisziplinären Charakter des Methodenfeldes aus. Der veröffentlichte Artikel adressiert die Herausforderungen einer transparenten Dokumentation von verwendeten Daten, Implikationen für die wissenschaftliche Praxis und Replizierbarkeit von Modellen. Als konkreter Beitrag wird ein Dokumentationsleitfaden eingeführt, der dem Datenpluralismus und der Interdisziplinarität der Methode gerecht wird. Der Leitfaden ist nicht nur zur Berichterstattung über die Datennutzung selbst konzipiert, sondern soll auch zur Reflektion über Datennutzung und deren Rechtfertigung anregen.
Das Projekt wurde getragen von Sebastian Achter und entstand aus einem Workshop des Lorentz-Zentrums zum Thema „Integrating Qualitative and Quantitative Evidence using Social Simulation“ (Leiden, Niederlande, April 2019). Zusammen mit einem internationalen Team wurde der entwickelte Dokumentationsleitfaden während unterschiedlicher Konferenzen und Workshops von Modellierern aus diversen Disziplinen praktischen Tests unterzogen, um dessen breite Anwendung sicherzustellen. Innerhalb dieses Prozesses konnte Sebastian Achter für das Projekt außerdem den „Best Poster Award“ auf der Social Simulation Konferenz 2019 gewinnen.

Zum Artikel „RAT-RS: A Reporting Standard for Improving the Documentation of Data Use in Agent-Based Modelling”: https://www.tandfonline.com/doi/full/10.1080/13645579.2022.2049511

 


„Autonomie als zweischneidiges Schwert“: Neue Publikation in Top-Journal aus dem Institut für Unternehmertum (W-11)

Autonomie ist generell, aber besonders auch im Unternehmertum positiv belegt, weil angenommen wird, dass sie Motivation und damit die Leistungsfähigkeit in kreativen Arbeitsumfeldern steigern kann. Das Institut für Unternehmertum hat die Wirkung von Autonomie nun in einem Feldexperiment mit über 300 unternehmerischen Teams untersucht. Dabei wurden zwei grundlegende Arten von Autonomie unterschieden: (1) die Autonomie, die eigen Projektidee auszuwählen, und (2) die Autonomie, die Teammitglieder selbst auszuwählen.

Im Ergebnis zeigt sich, dass beide Quellen von Autonomie tatsächlich zu einer Leistungssteigerung führen, die sich in einer objektiven Bewertung durch Experten und potenzielle Investoren manifestiert. Allerdings führen beide Quellen von Autonomie, wenn sie gemeinsam vorliegen, zu einem Leistungsabfall. Die Ergebnisse zeigen, dass selbstgewählte Teams sich zu früh einer Selbstzufriedenheit und -überschätzung ergeben, bevor sie das Potenzial ihrer selbstgewählten Projektidee voll ausschöpfen können.

Nach der mehrjährigen Datensammlung konnten die Ergebnisse dieser Forschung nun zusammen mit Koautoren der ESMT Berlin in „Organization Science“ veröffentlicht werden (Open Access Link), einem der Top-5 Journals im Bereich Management mit „A+“-Ranking. Ferner konnte ein verkürzter und praxisorientierter Beitrag im reichweitestarken Harvard Business Review (Link) platziert werden, um den Transfer der Forschungsergebnisse in die Praxis zu gewährleisten.

 


„Viele Lebenswege führen zum Startup!?“: Forschungskooperation mit Coresignal (USA)

In einem neuen Forschungsprojekt geht das Institut für Unternehmertum (Prof. Christoph Ihl, W-11) der Frage nach, welche Erfahrungen und Kenntnisse eine Person mitbringen muss, um ein (bestimmtes) Startup zu gründen („Founder“), und wie sich im Gegensatz dazu Personen unterscheiden, die sich erst im späteren Verlauf in einem Startup anstellen lassen („Joiner“). Hierbei sollen technische Kenntnisse (insb. in der Softwareentwicklung) und management-orientierte Kenntnisse unterschieden und mit dem Finanzierungserfolg von Startups in Beziehung gesetzt werden.

Bisher hat das Institut Daten über knapp 50.000 Startups in Bezug auf Finanzierungserfolg sowie deren Tätigkeitsbereich in der Softwareentwicklung gesammelt. Darüber hinaus konnte nun eine Forschungskooperation mit dem Unternehmen Coresignal (USA) vereinbart werden. Im Rahmen dieser Kooperation hat Coresignal Daten zur Verfügung gestellt, die sich auf über 16 Millionen Online-Lebensläufe beziehen von Personen, die mit den knapp 50.000 Startups in Verbindung stehen, sei es als Gründer/-in oder Angestellte/-r mit technischer oder management-orientierter Verantwortung.

Auf dieser einzigartigen Datengrundlage beginnt nun die empirische Arbeit zur fundierten Beantwortung der Forschungsfragen. Stay tuned!


„Innovationsökosysteme für Künstliche Intelligenz“: Beteiligung am Kooperationsprojekt AI.STARTUP.HUB Hamburg

Das Institut für Unternehmertum (W-11) unter der Leitung von Prof. Christoph Ihl ist für die Machine Learning in Engineering Initiative der TUHH am Kooperationsprojekt AI.STARTUP.HUB Hamburg beteiligt. Das Projekt ist vom Bundesministerium für Wirtschaft und Klimaschutz (BMWK) als eines von bundesweit vier Modellregionen für KI-Startups (neben Berlin, Darmstadt und München) gefördert, um in der Metropolregion Hamburg und im Norddeutschen Raum bis 2025 das Ökosystem zur Förderung von Startups mit speziellem Fokus auf Künstliche Intelligenz zu stärken.

Neben der Konzeption und Umsetzung eines Workshop- und Konferenzformats für AI-Startups ist das Institut für Unternehmertum für ein Arbeitspaket zur Begleitforschung verantwortlich. Hier soll es um eine innovative, modell- und datengestützte Deskription und Analyse von AI-Ökosystemen in Deutschland gehen: Traditionell werden Ökosysteme für Innovation und Unternehmertum beschrieben und visualisiert auf Basis bereits materialisierter Erfolgsindikatoren wie Patente oder Firmengründungen, Finanzierungsrunden und Exits in einer Region. Die Qualität von Ökosystemen zeichnet sich aber gerade dadurch aus, dass sie vielfältige unternehmerische Möglichkeiten fördern, die materialisierten Erfolgen zeitlich vorgelagert sind.

Um diesen Raum unternehmerischer Möglichkeiten messbar zu machen, wird die Analyse um strukturelle und kulturelle Dimensionen erweitert. In struktureller Hinsicht sollen neben Startups und Corporates weitere relevante Akteure aus Wissenschaft, öffentlicher Verwaltung und Zivilgesellschaft identifiziert werden. In kultureller Hinsicht geht es um die Einbettung aller Akteure in den wissenschaftlichen und gesellschaftlichen Diskurs, in dem sich über die Zeit dominante Interpretationen über neue KI-Technologien und –An-wendungen konsolidieren und so ein relationales Bedeutungssystem auf dem Gebiet der künstlichen Intelligenz sozial konstruiert wird.

Um den Raum unternehmerischer Möglichkeiten in Ökosystemen zu erfassen, werden eine Vielzahl von umfangreichen Datenquellen genutzt. Neben Patent- und Firmendatenbanken wird der wissenschaftliche Diskurs über akademische Publikationen und der gesellschaftliche Diskurs über Presseartikel und Social Media (Twitter) erfasst. Zudem kommt ein themenspezifischer Crawler von relevanten Organisations-Webseiten zum Einsatz. Die Datenverarbeitung erfolgt durch Werkzeuge der maschinellen Textverarbeitung (z.B. dependency parsing, named entity recognition, entity linking, sentiment analysis) sowie des maschinellen Lernens (z.B. context-oriented word embeddings, graph representation learning).

Im Endergebnis soll ein digitales Werkzeug zur interaktiven Suche und Visualisierung entstehen, das in die Webseiten der Projektpartner eingebunden werden kann und unter anderem folgenden praktischen Nutzen stiftet:

  • Benchmarking von Ökosystemen und Gestaltungsimplikationen (Policy Maker)
  • Impact-Analyse von einzelnen Institutionen oder ganzen Fördermaßnahmen (Policy Maker)
  • Experten-Finder & Matchmaking mit Kooperationspartnern in Bezug auf Technologien und Anwendungsfelder (Startups, Corporates, Wissenschaft)
  • Wettbewerbsanalysen (Startups, Investoren)
  • Opportunity-Identification und Assessment (Startups, Investoren)