Fraunhofer HHI
05.02.2018, 11:35 Uhr
Bilddaten schneller komprimieren
Fraunhofer-Forscher haben die Videokompression so angepasst, dass die bisher große Latenz fast nicht mehr wahrnehmbar ist. So wird sie interessant für den Einsatz im Straßenverkehr beziehungsweise das autonome Fahren. Die Technologie ist auf der Embedded World von 27. Februar bis 1. März 2018 in Nürnberg in Halle 4 (Stand 4-470) zu sehen.
Konzeptfahrzeug Sedric: der erste „Self-Driving Car“ des Volkswagen Konzerns
(https://www.volkswagenag.com/de/news/stories/2017/03/autonomous-driving-at-the-push-of-a-button.html)
(https://www.volkswagenag.com/de/news/stories/2017/03/autonomous-driving-at-the-push-of-a-button.html)
Kameras sind zum Beispiel in Rückscheinwerfern eingebaut. Sie helfen beim Einparken oder erkennen Hindernisse. Um die Größe der Bilddaten möglichst gering zu halten, werden Videokompressionsverfahren eingesetzt. Durch die Entwicklungsarbeit des Fraunhofer HHI geschieht das jetzt nahezu ohne Verzögerung.
Bis zu 12 Kameras sind heute in neuen Fahrzeugmodellen installiert, meist in den Front- oder Rückscheinwerfern und den Seitenspiegeln. Ein im Auto verbauter Bordrechner nutzt die Daten zum Beispiel für den Spurassistenten, die Einparkhilfe oder um andere Verkehrsteilnehmer beziehungsweise mögliche Hindernisse zu erkennen. »Kommt das autonome Fahren so schnell wie derzeit prognostiziert, dann wird die Zahl der Kameras weiter zunehmen«, prophezeit Professor Benno Stabernack vom Fraunhofer-Institut für Nachrichtentechnik, Heinrich-Hertz-Institut, HHI in Berlin.
Zehnmal mehr Daten
Das bedeutet noch mehr Last für die internen Datennetzwerke der Fahrzeuge. Aktuell können diese ein Datenvolumen von etwa einem Gigabit pro Sekunde verarbeiten. Bei HD-Qualität ist diese Datenmenge bereits bei einer Kamera erreicht. »Abhilfe schaffen hier Kompressionsverfahren«, sagt Stabernack. Das Fraunhofer HHI beispielsweise hat maßgeblich zur Entwicklung der beiden Videocodierungsstandards H.264/Advanced Video Coding (AVC) bzw. H.265/MPEG High Efficiency Video Coding (HEVC) beigetragen. »Mit diesen Verfahren lassen sich die Datenmengen stark reduzieren. Dadurch kann zum Beispiel mehr als die zehnfache Datenmenge übertragen werden«, hebt der Gruppenleiter aus der Abteilung »Videokodierung und Maschinelles Lernen« am Fraunhofer HHI hervor.
Üblicherweise werden 30 bis 60 Bilder pro Sekunde von einer Kamera an die zentrale Rechnereinheit des Fahrzeugs geschickt. Durch die Kompression der Bilddaten entsteht eine kleine Verzögerung bei der Übertragung, die Latenz. »Üblicherweise beträgt diese fünf bis sechs Bilder pro Sekunde«, erklärt Stabernack. Der Grund: Die Verfahren gleichen ein Bild mit den bereits übertragenen ab, um die Differenzen zwischen dem aktuellen Bild und seinen Vorgängern herauszurechnen. Durch die Netzwerke geschickt werden dann nur noch die Veränderungen von Bild zu Bild. Diese Berechnung dauert eine gewisse Zeit.
Latenzzeit unter einem Bild pro Sekunde
»Dieser Zeitverlust kann im Straßenverkehr jedoch von entscheidender Bedeutung sein«, sagt Stabernack. Um die Latenz zu vermeiden, benutzen der Professor und sein Team nur spezielle Mechanismen des H.264-Codierungsverfahrens: Der Abgleich der Unterschiede einzelner Bilder erfolgt dabei nicht mehr zwischen Bildern, sondern innerhalb eines Bilds. Das macht das Verfahren latenzarm. »Mit unserer Methode beträgt die Verzögerung nun unter einem Bild pro Sekunde, nahezu Echtzeit. Damit können wir das H.264-Verfahren nun auch für Kameras in Fahrzeugen nutzen«, beschreibt Stabernack den Mehrwert. Die Technologie wurde u.a. in Form eines speziellen Chips umgesetzt: In der Kamera komprimiert sie die Bilddaten, im Bordrechner decodiert sie diese wieder.
Im nächsten Schritt wollen die Forscher ihr inzwischen patentiertes Verfahren auch auf den HVEC-Standard übertragen und ihre Erfahrungen in nächste Standardisierungsformate einfließen lassen. Sie zeigen ihre Technologie auf der Embedded World vom 27. Februar bis 1. März 2018 in Nürnberg (Halle 4, Stand 4-470).
Bis zu 12 Kameras sind heute in neuen Fahrzeugmodellen installiert, meist in den Front- oder Rückscheinwerfern und den Seitenspiegeln. Ein im Auto verbauter Bordrechner nutzt die Daten zum Beispiel für den Spurassistenten, die Einparkhilfe oder um andere Verkehrsteilnehmer beziehungsweise mögliche Hindernisse zu erkennen. »Kommt das autonome Fahren so schnell wie derzeit prognostiziert, dann wird die Zahl der Kameras weiter zunehmen«, prophezeit Professor Benno Stabernack vom Fraunhofer-Institut für Nachrichtentechnik, Heinrich-Hertz-Institut, HHI in Berlin.
Zehnmal mehr Daten
Das bedeutet noch mehr Last für die internen Datennetzwerke der Fahrzeuge. Aktuell können diese ein Datenvolumen von etwa einem Gigabit pro Sekunde verarbeiten. Bei HD-Qualität ist diese Datenmenge bereits bei einer Kamera erreicht. »Abhilfe schaffen hier Kompressionsverfahren«, sagt Stabernack. Das Fraunhofer HHI beispielsweise hat maßgeblich zur Entwicklung der beiden Videocodierungsstandards H.264/Advanced Video Coding (AVC) bzw. H.265/MPEG High Efficiency Video Coding (HEVC) beigetragen. »Mit diesen Verfahren lassen sich die Datenmengen stark reduzieren. Dadurch kann zum Beispiel mehr als die zehnfache Datenmenge übertragen werden«, hebt der Gruppenleiter aus der Abteilung »Videokodierung und Maschinelles Lernen« am Fraunhofer HHI hervor.
Üblicherweise werden 30 bis 60 Bilder pro Sekunde von einer Kamera an die zentrale Rechnereinheit des Fahrzeugs geschickt. Durch die Kompression der Bilddaten entsteht eine kleine Verzögerung bei der Übertragung, die Latenz. »Üblicherweise beträgt diese fünf bis sechs Bilder pro Sekunde«, erklärt Stabernack. Der Grund: Die Verfahren gleichen ein Bild mit den bereits übertragenen ab, um die Differenzen zwischen dem aktuellen Bild und seinen Vorgängern herauszurechnen. Durch die Netzwerke geschickt werden dann nur noch die Veränderungen von Bild zu Bild. Diese Berechnung dauert eine gewisse Zeit.
Latenzzeit unter einem Bild pro Sekunde
»Dieser Zeitverlust kann im Straßenverkehr jedoch von entscheidender Bedeutung sein«, sagt Stabernack. Um die Latenz zu vermeiden, benutzen der Professor und sein Team nur spezielle Mechanismen des H.264-Codierungsverfahrens: Der Abgleich der Unterschiede einzelner Bilder erfolgt dabei nicht mehr zwischen Bildern, sondern innerhalb eines Bilds. Das macht das Verfahren latenzarm. »Mit unserer Methode beträgt die Verzögerung nun unter einem Bild pro Sekunde, nahezu Echtzeit. Damit können wir das H.264-Verfahren nun auch für Kameras in Fahrzeugen nutzen«, beschreibt Stabernack den Mehrwert. Die Technologie wurde u.a. in Form eines speziellen Chips umgesetzt: In der Kamera komprimiert sie die Bilddaten, im Bordrechner decodiert sie diese wieder.
Im nächsten Schritt wollen die Forscher ihr inzwischen patentiertes Verfahren auch auf den HVEC-Standard übertragen und ihre Erfahrungen in nächste Standardisierungsformate einfließen lassen. Sie zeigen ihre Technologie auf der Embedded World vom 27. Februar bis 1. März 2018 in Nürnberg (Halle 4, Stand 4-470).