1. Februar 2018
Die Zahl der Kameras in Autos steigt. Durch die Datenflut stoßen die internen Netzwerke jedoch an ihre Grenzen. Spezielle Kompressionsverfahren reduzieren die Menge der Videodaten, weisen jedoch eine hohe Latenz für die Codierung auf. Fraunhofer-Forscher haben die Videokompression so angepasst, dass eine Latenz fast nicht mehr wahrnehmbar ist. So wird sie interessant für den Einsatz im Straßenverkehr bzw. das autonome Fahren. Die Technologie ist auf der Embedded World vom 27. Februar bis 1. März 2018 in Nürnberg in Halle 4 (Stand 4-470) zu sehen.
Bis zu 12 Kameras sind heute in neuen Fahrzeugmodellen installiert. Meist in den Front- oder Rückscheinwerfern oder den Seitenspiegeln. Ein im Auto verbauter Bordrechner nutzt die Daten z.B. für den Spurassistenten, die Einparkhilfe oder um andere Verkehrsteilnehmer oder mögliche Hindernisse zu erkennen. »Kommt das autonome Fahren so schnell wie derzeit prognostiziert, dann wird die Zahl der Kameras weiter zunehmen«, prophezeit Prof. Benno Stabernack vom Fraunhofer-Institut für Nachrichtentechnik, Heinrich-Hertz-Institut, HHI in Berlin.
Zehnmal mehr Daten
Das bedeutet noch mehr Last für die internen Datennetzwerke der Fahrzeuge. Aktuell können diese ein Datenvolumen von etwa einem Gigabit pro Sekunde verarbeiten. Bei HD-Qualität ist diese Datenmenge bereits bei einer Kamera erreicht. »Abhilfe schaffen hier Kompressionsverfahren«, sagt Stabernack. Das Fraunhofer HHI beispielsweise hat maßgeblich zur Entwicklung der beiden Videocodierungsstandards H.264/Advanced Video Coding (AVC) bzw. H.265/MPEG High Efficiency Video Coding (HEVC) beigetragen. »Mit diesen Verfahren lassen sich die Datenmengen stark reduzieren. Dadurch kann z.B. mehr als die zehnfache Datenmenge übertragen werden«, hebt der Gruppenleiter aus der Abteilung »Videokodierung und Maschinelles Lernen« am Fraunhofer HHI hervor.
Üblicherweise werden 30 bis 60 Bilder pro Sekunde von einer Kamera an die zentrale Rechnereinheit des Fahrzeugs geschickt. Durch die Kompression der Bilddaten entsteht eine kleine Verzögerung bei der Übertagung, die Latenz. »Üblicherweise beträgt diese fünf bis sechs Bilder pro Sekunde«, erklärt Stabernack. Der Grund: Die Verfahren gleichen ein Bild mit den bereits Übertragenen ab, um die Differenzen zwischen dem aktuellen Bild und seinen Vorgängern herauszurechnen. Durch die Netzwerke geschickt werden dann nur noch die Veränderungen von Bild zu Bild. Diese Berechnung dauert eine gewisse Zeit.
Latenzzeit unter einem Bild pro Sekunde
»Dieser Zeitverlust kann im Straßenverkehr jedoch von entscheidender Bedeutung sein«, sagt Stabernack. Um die Latenz zu vermeiden, benutzen der Professor und sein Team nur spezielle Mechanismen des H.264-Codierungsverfahrens: Der Abgleich der Unterschiede einzelner Bilder erfolgt dabei nicht mehr zwischen Bildern, sondern innerhalb eines Bilds. Das macht das Verfahren latenzarm. »Mit unserer Methode beträgt die Verzögerung nun unter einem Bild pro Sekunde, nahezu Echtzeit. Damit können wir das H.264-Verfahren nun auch für Kameras in Fahrzeugen nutzen«, beschreibt Stabernack den Mehrwert. Die Technologie wurde u.a. in Form eines speziellen Chips umgesetzt: In der Kamera komprimiert sie die Bilddaten, im Bordrechner decodiert sie diese wieder.
Höhere Bildwiederholungsfrequenz und Auflösung
Die Berliner Forscherinnen und Forscher haben ihr Verfahren patentieren lassen und verkaufen ihr Know-how als Lizenz an die Industrie. Kunden sind Automobilzulieferer, erste Fahrzeugmodelle mit der Fraunhofer-Technologie sind bereits auf dem Markt. »Bei der Entwicklung haben wir unser Know-how aus den Arbeiten zu den Videokompressionsstandards und unsere Hardwareexpertise miteinander kombiniert. Die Übertragung von Bilddaten in Echtzeit ist Voraussetzung dafür, dass sich die Videokompression bei Videodaten aus Autokameras durchsetzt. Durch sie käme dann auch der Einsatz von Geräten mit höherer Bildwiederholungsfrequenz und Auflösung in Frage. Für Kameramodelle, die noch mehr Daten produzieren und dadurch genauer und schneller sind«, fasst Stabernack die Bedeutung der Technologie zusammen.
Im nächsten Schritt wollen die Forscher ihr Verfahren auch auf den HEVC-Standard übertragen und ihre Erfahrungen in nächste Standardisierungsformate einfließen lassen. Sie zeigen ihre Technologie auf der Embedded World vom 27. Februar bis 1. März 2018 in Nürnberg (Halle 4, Stand 4-470).