Skip to content
Data Science & AI

ecoexperts — Tunnelsensorfusion: Implementierung von ML Modellen in der kritischen Infrastruktur

In a nutshell

Gemeinsam mit unserem Kunden haben wir mehrere komplexe Modelle im Live Betrieb eines österreichischen Autobahntunnels implementiert. Dadurch konnte die Fehlerquote im System zur Erkennung von kritischen Ereignissen (wie stehende Fahrzeuge, Unfälle, Brände, Falschfahrer, usw.) im Tunnel signifikant reduziert und die Mitarbeiter*innendes Autobahnbetreibers in der Tunnelzentrale deutlich entlastet werden. Die Idee wurde im Rahmen eines Data Thinking Workshops skizziert und die Vorgehensweise konzipiert.

ecoexperts
Business Challenge

Die Informationen aus den verschiedenen Datenquellen zu kombinieren, die rohen Sensordaten in ein geeignetes Zielformat für ein Machine Learning Modell zu bringen, die Daten zu visualisieren

Projektübersicht

Dauer

06/2022 — 03/2023

Team-Setup

interdisziplinäres Team von PS Data Scientists & Data Engineers und Software Engineers bei PS und ecoexperts

Technologien

Python (pandas, numpy, jupyter, scikit-learn, mlflow, fastAPI), Angular, SQL Server, Docker, Git

Leistungen

Data Engineering, API-Development, Data Visualisation, Machine Learning Model Development und Evaluation, Model Deployment (MLOps)

Über ecoexperts

ecoexperts ist ein führendes Unternehmen im Bereich Infrastrukturautomatisierung, das sich auf die Entwicklung und Implementierung von hochmodernen Steuerungssystemen für kritische Infrastrukturen spezialisiert hat. Mit einem Schwerpunkt auf Tunnel, Verkehrsregelung und Energiefarmen gewährleistet ecoexperts ständige Verfügbarkeit, Schutz vor Cyberangriffen und zukunftsfähige Skalierbarkeit. Seit der Gründung 2011 in Österreich hat das Unternehmen erfolgreich große Infrastrukturprojekte umgesetzt und ist ein wichtiger Partner der ASFINAG, dem Betreiber der Straßeninfrastruktur des österreichischen Staates. ecoexperts steht für Nachhaltigkeit, Innovation und maßgeschneiderte Lösungen, um effiziente und sichere Infrastrukturen zu schaffen.

Herausforderungen & Ziele

In einem modernen Autobahntunnel sind eine Vielzahl von unterschiedlichen Sensoren verbaut, beispielsweise Kameras zur Videoerkennung, Mikrofone, Zählschleifen, CO-Messgeräte etc. (im vorliegenden Fall sind es über 350 verschiedene Sensoren über eine Distanz von mehr als zwei Kilometer). Jeder dieser Sensoren erkennt spezielle Ereignisse im Tunnel wie beispielsweise langsame Fahrzeuge, stehende Fahrzeuge oder Unfälle. Durch unterschiedliche Effekte liefern die Einzelsensoren eine große Anzahl an falsch-positiven Ereignismeldungen (Ereignismeldungen ohne tatsächliches Problem im Tunnel). Die Mitarbeiter*innen in der Tunnelzentrale müssen wiederum auf jede dieser Meldungen reagieren und entsprechende Maßnahmen einleiten (Tunnel schließen, Geschwindigkeit verlangsamen etc.).

Unser Ziel war, mithilfe eines Machine Learning Modells die Anzahl der falsch-positiven Meldungen signifikant zu reduzieren, ohne dabei die Anzahl der wahr-positiven Meldungen zu verringern. Die Herausforderung bestand darin, die Informationen aus den verschiedenen Sensoren geeignet zu kombinieren und eine treffsicherere Ereignismeldung an die Zentrale zu liefern.

Unsere Lösung

Um die Daten- und Systemarchitektur zu erarbeiten, haben wir mit einem Data Thinking Workshop gestartet. In diesem Format analysieren wir zuerst die Geschäftsprozesse und -daten hinsichtlich potentieller Anwendungsfälle und erstellen dann einen detaillierten Projektplan, mit notwendigen Schritten, erforderlichen Ressourcen und voraussichtlichem Zeitrahmen.

Nachdem wir die grundsätzliche Datenarchitektur geklärt haben, wurden Daten-Pipelines implementiert, um die rohen Sensordaten in ein geeignetes Zielformat für ein Machine Learning Modell zu bringen.

Im nächsten Schritt haben wir verschiedene Machine Learning Modelle getestet und bewertet. Die Wahl der richtigen Bewertungsmetrik spielte eine entscheidende Rolle bei der Modellauswahl, da beispielsweise die Accuracy falsch-positive Vorhersagen gleich wie falsch-negative gewichtet.

Zur Versionskontrolle des Codes wurde Git verwendet und zur Versionierung von Modellen, Artefakten und Metriken MLFlow. Via fastAPI wurden APIs für die Modelle implementiert und via MLFlow wurden die produktionsbereiten Modelle schließlich der API zur Verfügung gestellt.

Ergebnis & Zukunftspläne

Dank dem Data Thinking Workshop als Einstiegspunkt konnten wir eine maßgeschneiderte ML-Lösung für das komplexe Problem finden. In einem ersten Proof-of-Concept haben wir die Komplexität auf das Wesentliche reduziert und erste ML-Modelle mit vielversprechenden Resultaten im Live-Betrieb des Tunnels implementiert. Die Wahl der richtigen Bewertungsmetrik erwies sich in solch einem sicherheitskritischen Umfeld als entscheidend.

Unsere KI-Modelle befinden sich nun im Live-Betrieb und dienen als Unterstützung für die Mitarbeiter*innen im Tunnel. Laufend werden neue Daten von ihnen via Frontend gelabelt, welche zukünftig wiederum die Modelle füttern und weiter lernen lassen.

Zukünftig sollen die KI-Modelle weiter verbessert und laufend evaluiert werden, sodass potentiell weitere Tunnelanlagen mit den Modellen bestückt werden können.