Skip to content
Licensed Unlicensed Requires Authentication Published by Oldenbourg Wissenschaftsverlag May 8, 2021

Effiziente Schätzung des Ego-Fahrstreifens auf RGB-Sequenzen für Mikromobilitätssysteme

Efficient ego-lane detection on RGB-sequences for micro-mobility systems
  • Rebekka Charlotte Peter

    Rebekka Peter hat Elektrotechnik und Informationstechnik am Karlsruher Institut für Technologie (KIT) studiert und ist zur Zeit wissenschaftliche Mitarbeiterin am Institut für Mess- und Regelungstechnik des KITs im Bereich der kamerabasierten Umgebungswahrnehmung.

    ORCID logo EMAIL logo
    , Yuduo Song

    Yuduo Song ist Absolvent des Karlsruher Institut für Technologie des Studiengangs Maschinenbau (M. Sc.). Das Bachelorstudium hat er 2016 an der Beihang Universität, China, abgeschlossen. Seine Interessen liegen im Bereich des Maschinellen Sehens und der Umgebungswahrnehmung für Autonomes Fahren.

    , Yew Hon Ng

    Yew Hon Ng hat Elektrotechnik an der Fachhochschule Aachen studiert. Er arbeitet als wissenschaftlicher Mitarbeiter an der Fachhochschule Aachen im Bereich Sensorik.

    and Martin Lauer

    Martin Lauer hat Informatik an der Universität Karlsruhe studiert und einen Doktortitel an der Universität Osnabrück erhalten. Er arbeitet als Gruppenleiter am Karlsruher Institut für Technologie in den Bereichen Computer Vision, maschinelles Lernen und autonomes Fahren.

From the journal tm - Technisches Messen

Zusammenfassung

In dieser Arbeit wird eine effiziente Methode zur Schätzung der Ego-Fahrstreifen vorgestellt. Das System ist ausgelegt auf die Anwendung für Mikromobilitätssysteme wie E-Fahrräder, E-Scooter oder E-Dreiräder und basiert auf Sequenzen von RGB-Bildern, die aus der Fahrerperspektive aufgenommen werden. Um die Grenzen verschiedener Fahrbahntypen, insbesondere Fußwegen, Radwegen und Straßen, robust zu detektieren, wird ein gradientenbasierter Kantendetektor mit einem Farbsegmentierungansatz kombiniert. Sowohl geometrische Gegebenheiten als auch zeitliche Inferenz werden genutzt, um die Schätzung zu optimieren, insbesondere in schwierigen Fällen wie Kurven. Dabei ist insbesondere die dynamische Schätzung des Fluchtpunkts mithilfe des Optischen Flusses zwischen zwei aufeinanderfolgenden Bildern von Bedeutung. Tests mit zwei Aufnahmesetups und drei verschiedenen Aufrahmeraten zeigen, dass der Ego-Fahrstreifen in den meisten Fällen mit hoher Genauigkeit detektiert und in Kurven passend approximiert wird. Dies wird von der quantitative Evaluation anhand von über 2000 Testbildern bestätigt, die eine IoU von 75,28 % ergibt. Eine Performanz von 12 fps auf einem Raspberry Pi 3 zeigt zudem, dass die Methode wenig rechenintensiv ist, was als Vorraussetzung für die Anwendung in der Mikromobilität gilt.

Abstract

In this work, we present an efficient method for ego lane detection for micro-mobility systems as electric bicycles, scooters, or tricycles using RGB sequences from a driver’s perspective. We combine a gradient-based line detector with color-based segmentation to robustly find an approximation for the ego lane borders in various traffic environments. With given geometrical conditions of the scene and temporal inference, the approximation is improved, especially in difficult cases as when driving a curve. A key task thereby is the dynamic estimation of the vanishing point using optical flow vectors between two consecutive frames. Tests on over 2000 images taken with two different recording setups and different sampling rates show that the method reliably finds the borders of the ego lane in most of the samples and approximates the ego lane in a suitable way in curves. This is confirmed with a quantitative evaluation, determining an IoU of 75.28 %. A performance of 12 fps on a Raspberry Pi 3 furthermore shows the suitability of our method for micromobility systems with low-cost and low-power hardware.

Award Identifier / Grant number: 16SV8209

Funding statement: Diese Arbeit wurde vom Bundesministerium für Bildung und Forschung (BMBF) im Rahmen des Projekts Kamäleon unter dem Kennzeichen 16SV8209 gefördert.

Über die Autoren

Rebekka Charlotte Peter

Rebekka Peter hat Elektrotechnik und Informationstechnik am Karlsruher Institut für Technologie (KIT) studiert und ist zur Zeit wissenschaftliche Mitarbeiterin am Institut für Mess- und Regelungstechnik des KITs im Bereich der kamerabasierten Umgebungswahrnehmung.

Yuduo Song

Yuduo Song ist Absolvent des Karlsruher Institut für Technologie des Studiengangs Maschinenbau (M. Sc.). Das Bachelorstudium hat er 2016 an der Beihang Universität, China, abgeschlossen. Seine Interessen liegen im Bereich des Maschinellen Sehens und der Umgebungswahrnehmung für Autonomes Fahren.

Yew Hon Ng

Yew Hon Ng hat Elektrotechnik an der Fachhochschule Aachen studiert. Er arbeitet als wissenschaftlicher Mitarbeiter an der Fachhochschule Aachen im Bereich Sensorik.

Martin Lauer

Martin Lauer hat Informatik an der Universität Karlsruhe studiert und einen Doktortitel an der Universität Osnabrück erhalten. Er arbeitet als Gruppenleiter am Karlsruher Institut für Technologie in den Bereichen Computer Vision, maschinelles Lernen und autonomes Fahren.

Literatur

1. S. V. Chougule, A. Ismail, G. Adam, V. Narayan and M. Schulze, Forum Bildverarbeitung (2018), 291–301.Search in Google Scholar

2. A. Meyer, N. O. Salscheider, P. F. Orzechowski and C. Stiller, Deep semantic lane segmentation for mapless driving, In IEEE/RSJ IROS, DOI: 10.1109/IROS.2018.8594450.Search in Google Scholar

3. S. Graovac and A. Goma, Detection of road image borders based on texture classification, Int. J. Adv. Robotic Sy., 9 (2012), 242–254.10.5772/54359Search in Google Scholar

4. H. Kong, J. Audibert and J. Ponce, General road detection from a single image, IEEE Trans. Image Processing, 19 (2010), 2211–2220.10.1109/TIP.2010.2045715Search in Google Scholar PubMed

5. U. Ozgunalp and S. Kaymak, Lane detection by estimating and using restricted search space in Hough domain, Procedia Computer Science, DOI: 10.1016/j.procs.2017.11.222.Search in Google Scholar

6. B. Lucas and T. Kanade, An iterative image registration technique with an application to stereo vision, IJCAI, 7 (1981), 121–130.Search in Google Scholar

7. A. Ram, J. Sunita, A. Jalal and K. Manoj, A density based algorithm for discovering density varied clusters in large spatial databases, IJCA, 3 (2010), 739–1038.10.5120/739-1038Search in Google Scholar

8. J. Canny, A computational approach to edge detection, IEEE PAMI, 8 (1986), 679–698.10.1016/B978-0-08-051581-6.50024-6Search in Google Scholar

9. J. Jähne, In Digitale Bildverarbeitung (2002), DOI: 10.1007/978-3-662-06731-4.Search in Google Scholar

10. R. McDonald and K. J. Smith, CIE94 – a new colour-difference formula, Journal of The Society of Dyers and Colourists, 111 (2008), 376–379.10.1111/j.1478-4408.1995.tb01688.xSearch in Google Scholar

Erhalten: 2021-02-15
Angenommen: 2021-04-20
Online erschienen: 2021-05-08
Erschienen im Druck: 2021-08-27

© 2021 Walter de Gruyter GmbH, Berlin/Boston

Downloaded on 27.5.2024 from https://www.degruyter.com/document/doi/10.1515/teme-2021-0025/html
Scroll to top button