Doch die Aufgabenstellungen sind vielfältig. Über 200 Experten aus der Industrie diskutierten während der Telematics Berlin Konferenz über die Herausforderung, den Datenmassen von vernetzten Fahrzeugen Herr zu werden. Gleichzeitig sollen Geschäftsmodelle innerhalb der rechtlichen Rahmenbedingungen gefunden werden.
Das Technologiepotenzial des vernetzten Fahrzeugs samt der generierten Daten gleicht nach Einschätzungen von Frost & Sullivan einem Eisberg. In ihrem Marktüberblick bilden bisherige kundenorientierte Anwendungen wie Infotainment, vernetzte Assistenzdienste und nutzerbasierte Versicherung nur die Spitze, wenn auch eine, die Gewinne abwirft.
Den weitaus größeren Anteil mit entscheidendem Einfluss in der Zukunft haben fahrzeugbezogene Anwendungen, welche die Daten für präventive Diagnose und Reparatur, Produktentwicklung und -test im Sinne von Industrie 4.0 und daraus resultierenden, funkgesteuerten Soft-und Firmware Updates (Sota/Fota – Software/Firmware over the Air updates) nutzen.
Nutzerbasierte Versicherungsmodelle
Ebenso dazu gehören erweiterte Mobilitätsdienste und Programme zur Erhöhung der Kundenzufriedenheit sowie die Optimierung der Handelslieferkette. Vernetzte Fahrzeuge stellen ein großes Risiko für traditionelle Tier 1 dar, die von Software und Content Providern schnell überflügelt werden können. Doch noch sind rentable Geschäftsmodelle durch Regelungen zur Wahrung der Privatspähre und Fragen zum Dateneigentum limitiert.
Wachstumsstärkste Anwendungen bis 2020, in die sich Investments zur Auswertung großer Datenmengen lohnen, sind nutzerbasierte Versicherungsmodelle. Danach folgen präventive Diagnose und Wartung sowie Angebote für Parkplatz-Lösungen oder erweiterte Dienstleistungen wie dynamische Routenplanung, standortbezogene Services und Concierge- oder Transaktionsdienste, wie sie beispielsweise bei der Ladeinfrastruktur für Elektrofahrzeuge benötigt werden.
Die größten Herausforderungen der Fahrzeughersteller für die erfolgreiche Umsetzung liegen in der Erhöhung der Datenqualität und Bewertung der Datenrelevanz, auch um Übertragungskosten zum Back-End einzugrenzen.
Googles selbstfahrendes Auto generiert etwa ein Gigabyte an Daten pro Sekunde, das kann schnell teuer werden. Ein Mangel an Datenwissenschaftlern – schon 2013 vom Harvard Business Review zum „sexiest job“ des 21. Jahrhunderts gekürt – und das Erfassen der sich durchs Internet ändernden Erwartungen der Kunden an den OEM machen die Umsetzung nicht leichter. Lösungen können nur gemeinsam mit Partnern gefunden werden.
Doch wem gehören die Daten und wer wird am meisten daran verdienen? Bis jetzt haben Anbieter im Nachrüstmarkt die Nase vorn, da über ihre wenn auch nicht vollständig, so jedoch schnell zu integrierenden Produkte der Kunde auf die neuen Dienste aufmerksam wird. Cloudbasierte Anwendungen machen zudem den Weg frei für multimodale Dienste, in die über unterschiedliche Arten der Mobilität hinweg das Verhalten des Nutzers einfließen kann.
Perspektive eines Premiumherstellers
Big Data ist jetzt schon Alltag bei BMW. Mehr als 18 Millionen Fahrzeuge im Feld, die je über bis zu 65 Steuergeräte verfügen können, weisen dank eintausend individuell wählbaren Optionen eine immense Vielfalt auf. Im Fahrzeug sind durchschnittlich ein Gigabyte funktionale Software, von der etwa 2000 Funktionen für den Kunden relevant sind, installiert und 15 Gigabyte an Daten gespeichert.
Dazu kommen etwa 12.000 Fehlercodes für die Onboard-Diagnose und 3500 metrische Werte in den Steuergeräten. Am Tag können bis zu 70.000 Diagnoseabfragen erfolgen, sodass über 40 Terabyte an Daten dem Konzern, aber auch den 4000 Händlern in 90 Ländern mit insgesamt 50.000 Servicekräften zur Analyse zur Verfügung stehen.
Die richtige Analyse würde BMW einen Rundumblick über Fahrer und Fahrzeug liefern. Doch die Herausforderung liegt nicht nur in der Datenmenge, die sich seit 2010 verdoppelt hat, sondern auch in der Vielfalt und Flüchtigkeit wie beispielsweise von Sensor-Echtzeitdaten und insbesondere in der Vertrauenswürdigkeit der Quelle. Denn das datengebende Fahrzeugteil könnte gerade die Fehlerquelle selbst sein. BMW paart daher statistische Modellierung mit Maschinenlernen, um Vorhersagen zu treffen.
Zunächst werden eine Gruppe Fahrzeuge mit signifikant großer Menge an Ereignissen (>100) und eine passende Vergleichsgruppe ohne Fehler ausgewählt. Wahllos werden zehn bis 15 Prozent der ersten als Testgruppe verwendet.
Dann wird anhand des Fehlers und der Vergleichsgruppe mit hochentwickelten statistischen und prognostischen Analysetools sowie eigens entwickelten Algorithmen ein mögliches Versagen modelliert und der Testgruppe gegenübergestellt. Der Gesamtprozess wird in mehreren Iterationsstufen durchlaufen. Als Software kommt hierbei das Open Source Tool RStudio für die statistische Programmiersprache R zum Einsatz. Der interne APP Store BMW Facts, basierend auf QlikView, liefert Experten Einzelanwendungen für Spezialfälle.