Software

Willkommen im Software-Bereich unseres Labs! Wir sind ein Team von innovativen Forschern und Entwicklern, die daran glauben das Technologie und Software die Welt verändenr kann. Unser Lab widmet sich der Entwicklung neuer Software, die reale Probleme für autonome Fahrzeuge löst, um diese anschließend für jedermann verfügbar zu machen.

Wir sind stolz darauf, Teil der Open-Source-Community zu sein, in der Wissen frei geteilt wird und Zusammenarbeit den Fortschritt vorantreibt. Das gesamte von uns erstellte Lehrmaterial und die von uns entwickelte Software wird als Open Source veröffentlicht, was bedeutet, dass jeder auf unsere Arbeit zugreifen, sie nutzen und darauf aufbauen kann.

Auf dieser Seite findet Ihr eine umfassende Liste aller Software, die unser Lab entwickelt und veröffentlicht hat. Von hochmodernen Tools für die Datenanalyse über Simulationen für autonome Fahrzeuge bis hin zu Algorithmen, die eine sichere und vertrauenswürdige Autonomie für ein breites Spektrum hochintegrierter autonomer Fahrzeuganwendungen ermöglichen.

In unserem Labor sind wir davon überzeugt, dass Software die Macht hat, etwas zu bewirken. Egal, ob Sie Forscher, Entwickler oder einfach nur technikinteressiert sind, wir laden Sie ein, uns bei der Entwicklung der nächsten Generation von intelligenten autonomen Fahrzeugen zu unterstützen.

Besuche unsere Github-Seite

TUM EDGAR: Digital Twin eines autonomen Fahrzeugs

Ein digitaler Zwilling ist eine virtuelle Darstellung eines physischen Objekts oder Systems. Im Falle unseres Repositorys dient der digitale Zwilling als digitales Gegenstück zu unserem autonomen Forschungsfahrzeug. Er erfasst das Verhalten, die Leistung und die Eigenschaften des Fahrzeugs in einer virtuellen Umgebung. Mit diesen Informationen könnt ihr das EDGAR-Fahrzeug in verschiedenen 2D- und 3D-Simulationsumgebungen simulieren.

Link zum Github Repository

Link zum Paper

FlexMap Fusion: Multi-LiDAR Localization and Mapping Pipeline

Autonome Fahrzeuge benötigen genaue und robuste Lokalisierungs- und Kartierungsalgorithmen, um sicher und zuverlässig in städtischen Umgebungen zu navigieren. Wir stellen eine neuartige, auf Sensorfusion basierende Pipeline für Offline-Kartierung und Online-Lokalisierung auf der Grundlage von LiDAR-Sensoren vor. Der vorgeschlagene Ansatz nutzt vier LiDAR-Sensoren. Die Kartierungs- und Lokalisierungsalgorithmen basieren auf dem KISS-ICP und ermöglichen Echtzeitleistung und hohe Genauigkeit.

Link zum Github Repository

Link zum Paper

FRENETIX: Motion Planner for Autonomous Vehicles

Autonome Fahrzeuge benötigen ein spezielles Softwaremodul, das eine sichere und effiziente Trajektorie ermöglicht. Wir veröffentlichen hier einen Frenet-Trajektorienplanungsalgorithmus, der Trajektorien in einem Sampling-basierten Ansatz generiert. Das Repository bietet einen python-basierten und einen C++-beschleunigten Bewegungsplaner, der polynomiale Trajektorien in einem kurvenförmigen Koordinatensystem abtastet und sie auf Machbarkeit und Kosten auswertet.

Link zum Github Repository

Link zum Paper

ROS 2 Latency Analysis

ROS2 Software Systeme bestehen meist aus einer hohen Anzahl von Publisher und Subscriber Modulen. Unsere Softwaretool erstellt einen Datenflussgraphen (DFG) für eine ROS2-Software für autonomes Fahren mit Hilfe einer statischen Codeanalyse. Dadurch können IDatenabhängigkeiten eines C++-basierten ROS2-Systems ohne manuelle Annotation gefunden und leichter visualisiert werden.

Link zum Github Repository

Link zum Paper

CamRaDepth: Semantic Guided Depth Estimation Using Monocular Camera and Sparse Radar

Da Kameras nur 2D-Bilder ausgeben und aktive Sensoren wie LiDAR oder RADAR nur spärliche Tiefenmessungen erzeugen, müssen informationsreichen Tiefenkarten geschätzt werden. In dieser Software kombinieren wir das Potenzial visueller Transformer indem wir Bilder einer Monocamera, semantische Segmentierungen und die Projektionen von Radarsensoren für eine robuste monokulare Tiefenschätzung fusionieren.

Link zum Github Repository

Link zum Paper

ORB-SLAM3-RGBL

In dieser Arbeit fügen wir dem bekannten ORB-SLAM3 den RGB-L (LiDAR) Modus hinzu. Dies ermöglicht es, LiDAR-Tiefenmessungen direkt in das visuelle SLAM zu integrieren. Auf diese Weise erhalten wir eine Genauigkeit, die einer Stereocamera extrem nahe kommt. Gleichzeitg konnten wir die  Berechnungszeiten stark reduzieren.

Link zum Github Repository

Link zum Paper