Motivation

Um autonomes Fahren zu ermöglichen, muss ein Fahrzeug in der Lage sein,die Umgebung zu erfassen. Weiterhin muss es hochgenau die eigene Position in der Umgebungskarte ermitteln, sowie alle weiteren Verkehrsteilnehmer im Umfeld korrekt klassifizieren. Besonders in dynamischen Situationen zum Beispiel auf der Rennstrecke ist die Echtzeitfähigkeit der Umfeldwahrnehmung sicherzustellen.

In den letzten Jahren wurden im Bereich der Objektdetektion auf Kamerabasis weitreichende Fortschritte erzielt. Kameras können jedoch nicht in allen Situationen eine gute Umfeldwahrnehmung garantieren. Ziel dieser Arbeit ist es die Potentiale einer low-level Fusion der verschiedenen Sensordaten zu evaluieren und die Güte der Objektdetektion zu verbessern. 

Ziel

Das Ziel dieses Projektes ist die Entwicklung eines echtzeitfähigen Algorithmus zur Detektion der Verkehrsteilnehmern im Fahrzeugumfeld mittels einer low-level Sensordatenfusion. Dieser soll durch die Verwendung der unterschiedlichen Sensorprinzipien die Detektionsgenauigkeit auch bei starken Umwelteinflüssen z.B. starkem Regen verbessern. Dadurch soll die Sicherheit autonomer Fahrzeuge im allgemeinen Straßenverkehr erhöht werden. Des Weiteren soll der Algorithmus auch in einer autonomen Rennserie zum Einsatz kommen. Hierbei bestehen erweiterte Anforderungen, um auch die in Rennen üblichen hochdynamischen Szenarien in Echtzeit verarbeiten zu können und Kollisionen auf engem Raum auszuschließen.

Vorgehensweise

Zu Beginn wird eine Recherche zum technischen Stand der aktuell verfügbaren Systeme im Bereich der Umfelderfassung durchgeführt. Darauf aufbauend sollen sowohl durch klassische Methoden sowie Methoden aus dem Bereich des Machine Learning (z.B. Deep Learning) Algortihmen zur Objektdetektion entwickelt und evaluiert werden. Der Praxistest der Algorithmen wird im Rahmen des Roborace durchgeführt. Die Rennen der Roborace-Serie sollen auf regulären Formel-E Stadtkursen ausgetragen werden.