AHEAD - Hochaufgelöste Lichtverteilungen für kamera-basiertes, automatisiertes Fahren; individueller Schlussbericht AHEAD (SB)

dc.contributor.authorKauschke, Rainer
dc.contributor.authorWilks, Carsten
dc.contributor.authorKubitza, Boris
dc.date.accessioned2025-09-29T07:15:44Z
dc.date.available2025-09-29T07:15:44Z
dc.date.issued2025-09-24
dc.description.abstractIn the publicly funded project AHEAD the improvements of a high-resolution lighting design for better camera detection were investigated to improve the camera vision of a highly automated test vehicle. The validation is prepared by a 46 km digital twin with town, rural and motorway roads, under- and overpasses, junctions, roundabouts and a tunnel, which were built up according to measured 3D world data by 3D Mapping Solutions in 3 different levels of detail. The SOL-Matrix Light simulation of the TU Dortmund University allows a real-time, high resolution light distribution generation in dynamic virtual scenarios. Also, it controls the light distribution of the real test vehicle. Three camera recording streams and a motion unit are used to self-localize the FORVIA HELLA test vehicle to evaluate online and in post-processing the improvements in the object detection and to analyze possible safety improvements. Improving acceptance and a more energy-efficient light distribution are additional targets. Initial simulation results show significant improvements in object detection for automated driving and energy reduction. The dynamic validation of the system approach of high-resolution illumination and multi-channel camera detection shows improvements in traffic safety and in energy saving.eng
dc.description.versionpublishedVersion
dc.identifier.urihttps://oa.tib.eu/renate/handle/123456789/23606
dc.identifier.urihttps://doi.org/10.34657/22623
dc.language.isoger
dc.publisherHannover : Technische Informationsbibliothek
dc.relation.affiliationFORVIA - HELLA GmbH & Co. KGaA
dc.rights.licenseCreative Commons Attribution-NonDerivs 3.0 Germany
dc.rights.urihttps://creativecommons.org/licenses/by-nd/3.0/de/
dc.subject.ddc500 | Naturwissenschaften
dc.subject.otherautomated drivingeng
dc.subject.othervirtual light simulationeng
dc.subject.otherlight design for complex sceneseng
dc.subject.othervirtual and real-world camera detection validationeng
dc.subject.otherautomatisiertes Fahrenger
dc.subject.othervirtuelle Lichtsimulationger
dc.subject.othervirtuelle und Realwelt Kamera Detektionsvalidierungger
dc.subject.otherLicht für kamera-basiertes Fahrenger
dc.subject.otherLicht für autonome Fahrzeugeger
dc.titleAHEAD - Hochaufgelöste Lichtverteilungen für kamera-basiertes, automatisiertes Fahren; individueller Schlussbericht AHEAD (SB)ger
dc.title.alternativeAHEAD - Light distributions for camera-based automated driving - in simulation and validated in real world scenarioseng
dc.typeReport
dcterms.event.date01.06.2021 bis 30.09.2024
dcterms.extent8 Seiten, 1 png-Datei
dtf.funding.funderBMWE
dtf.funding.program19A21021A
dtf.funding.verbundnummer01235863
dtf.version1
tib.accessRightsopenAccess
tib.date.embargoEnd2025-09-29

Files

Original bundle
Now showing 1 - 2 of 2
Loading...
Thumbnail Image
Name:
20250924 Indiv_SB_HELLA_AHEAD-Projekt_RK_TIB.pdf
Size:
4.87 MB
Format:
Adobe Portable Document Format
Description:
Das AHEAD-Projekt zeigt, dass die menschliche Wahrnehmung sich von kamerabasierten, automatisiert fahrenden Fahrzeugen unterscheidet. Die menschliche Wahrnehmung ist vorgeprägt auf eine homogene Ausleuchtung in einem dynamischen Fahrkontext einer realen Fahrsituation mit Bodenwellen und Ebenheiten der Fahrbahn. Die Kameras von automatisierten Fahrzeugen dagegen reagieren schneller als der Mensch, sind ermüdungsfrei und profitieren von der gezielten Ausleuchtung und Kontrast-Verstärkung in bestimmten Ausleucht-Bereichen, z.B. in der Nähe des Fernfeldes, nahe der Hell-Dunkel-Grenze einer Abblendlicht-Verteilung, aber auch in Seitenbereichen vor dem Fahrzeug, um optisch Gefahren, wie Rehe, spielende Kinder etc. zu erkennen oder um Landmarken (Schilder, Leitpfosten, Bäume) für eine zusätzliche Lokalisierung, neben GPS-Signalen, zu nutzen. Eine dunklere eigene Fahrbahn oder weniger Ausleuchtung im Vorfeld der Lichtverteilung steigert die Energie-Effizienz der Ausleuchtung und der Kamera-Erkennungsalgorithmus kann weiterhin robust die Fahrbahnmarkierungen erkennen. Je höher die Fahrgeschwindigkeit, umso geringer kann die Breite der Ausleuchtung sein in Abhängigkeit vom Straßentyp und der Fahrsituation (Innenstadt, Landstraße oder Autobahn). Fahrintentionen können auch durch ein geringeres Ausleucht-Niveau auf der eigenen Fahrbahn angezeigt werden, wodurch die Kamera-Erkennung im Vorfeld nicht gemindert wird. Die Leitpfosten-Erkennung wird robuster durch einen geringeren Gradienten der Ausleuchtung. Die YOLO-Erkennung hängt stark von den Trainingsdaten, der Ausleuchtung und der Lage der erkannten Objekte ab, wenn eine robuste Erkennung unter den dynamischen Nachtfahrtbedingungen und großen Entfernungen erzielt werden soll. Je besser die Lichtverteilung an die Kamera-Anforderungen und die Fahrsituation angepasst wurde, desto höher ist die Verkehrssicherheit und die Leistungsfähigkeit der Kameradetektion des automatisierten Fahrzeugs. In weiteren Arbeiten werden das Testfahrzeug und das Front-Rack für Verbesserungen der kamera-basierten Ausleuchtung und Energie-Effizienz-Steigerung eingesetzt werden. Der SOL-Matrix-Lichtsimulator und das 3D Digitaler Zwillingsmodell sind leistungsfähige virtuelle Entwicklungswerkzeuge, um ein Rapid-Prototyping von Lichtfunktionen in einem detaillierten Umfeld unter statischen und dynamischen Bedingungen für eine kamera-basierte Detektion von automatisierten Fahrzeugen in unterschiedlichen Szenarien erproben, optimieren und validieren zu können. Wir bedanken uns sehr für die effiziente Zusammenarbeit unter allen Projektpartnern.
Loading...
Thumbnail Image
Name:
2025-09-29 AHEAD-Logo.png
Size:
6.59 KB
Format:
Portable Network Graphics
Description: