Du willst an der Zukunft von autonomen und intelligenter System mitgestalten?
Dann komm ins Zentrum für Autonome Systeme (ZAS) der Hochschule Heilbronn!
Bei uns arbeiten Studierende, Forschende und Professor:innen gemeinsam an praxisnahen Projekten rund um
- Autonomes Fahren
- Künstliche Intelligenz & Deep Learning
- Edge Computing & Embedded Systems
- Digitale Zwillinge, Simulation & V2X-Kommunikation
- Localization – Wie bestimmt ein Fahrzeug seine Position präzise in jeder Umgebung?
- Prediction – Wie lassen sich Bewegungen anderer Verkehrsteilnehmer voraussagen?
- Planning – Wie wird auf Basis dieser Vorhersagen eine sichere Route geplant?
- Perception – Wie nimmt ein Fahrzeug seine Umgebung durch Kamera-, Lidar-, Radar- und GPS-Daten wahr und interpretiert sie?
- Simulation – Wie lassen sich komplexe Verkehrsszenarien realitätsnah simulieren und KI-Modelle unter kontrollierten Bedingungen trainieren?
- Digitale Zwillinge – Wie kann die reale Welt virtuell abgebildet werden, um autonome Systeme zu testen, zu überwachen und kontinuierlich zu verbessern?
- Vehicle-to-Everything (V2X) – Wie tauschen Fahrzeuge Informationen mit Infrastruktur, Fußgängern und anderen Verkehrsteilnehmern aus, um Sicherheit und Effizienz zu steigern?
- Anomaly Detection – Wie können Systeme Abweichungen im Verhalten, in Sensordaten oder im Fahrzeugzustand frühzeitig erkennen und darauf reagieren?
Gestalte die Zukunft autonomer Systeme mit uns!
Hochschule Heilbronn – Zentrum für Autonome Systeme (ZAS)
Interesse? Melde dich bei uns: Autonomous-Systems@hs-heilbronn.de











Ob Bachelorarbeit, Masterarbeit oder Hiwi-Stelle – bei uns kannst du dein Wissen in echten Projekten einsetzen und vertiefen.
Dabei kombinieren wir modernste Methoden und Software, Reinforcement Learning, Deep Learning, SLAM, Kalman-Filter, Motion Planning, 3D-Objekterkennung, Semantische Segmentierung, Anomalieerkennung und V2X-Kommunikationsmodelle.
Wir arbeiten mit Frameworks wie ROS 2, PyTorch, TensorFlow, OpenCV und MMDetection3D, nutzen Verkehrssimulationen und setzen zunehmend auf Large Language Models und Vision-Language-Modelle zur multimodalen Wahrnehmung, Entscheidungsfindung und Zustandsbewertung.
Unterstützt werden diese Ansätze durch leistungsfähige Technologien und Hardwareplattformen wie NVIDIA Jetson und Raspberry Pi 5 mit eingebetteter Sensorik.
Zum Einsatz kommen Lidar-, Radar- und Kamerasysteme, Drohnen- und Fahrzeugplattformen sowie IoT- und Edge-Infrastrukturen auf Basis moderner Kommunikationsstandards.
Die entwickelten Modelle und Algorithmen werden nicht nur simuliert, sondern später auch auf realen Versuchsträgern wie dem autonomen Shuttle oder einem Audi A3 umgesetzt und getestet, direkt auf dem Campus und in realer Umgebung.
Datenschutzeinstellungen
Wir setzen auf unserer Website Tracking-Technologien ein und haben Inhalte Dritter eingebettet. Eingesetzte Dienstleister können Daten für eigene Zwecke verarbeiten und mit anderen Daten zusammenführen. Details zu den Zwecken der Datenverarbeitung finden Sie in unserer Datenschutzerklärung.
Mit Ihrer Auswahl willigen Sie ggf. in die Verarbeitung Ihrer Daten zu den jeweiligen Zwecken ein. Die Einwilligung ist freiwillig, für die Nutzung des Onlineangebots nicht erforderlich und kann jederzeit über unsere Datenschutzeinstellungen widerrufen werden.