Sie haben Ihrer neuen Kamerareihe O3D auch eine neue Benutzerführung samt neuer Bediensoftware verpasst. Was hat sie dazu motiviert?
Mike Gonschior: Bei ifm definieren mehrere Tochtergesellschaften jeweils ihre eigenen Produkte. Wir haben in unserem Bereich die 3D-Kameras mit den PMD-Sensoren, wir haben Vision-Sensoren zur Code-Erkennung, solche zur Konturerkennung und Sensoren für Nicht-Kontur-Objekte. Es gibt übergeordnete Kreise, in denen wir miteinander sprechen, aber man sieht schon deutlich, aus welcher Tochtergesellschaft welches Produkt kommt. Entsprechend hatten wir vier verschiedene Bediensoftwares, die mit der Zeit auch immer mehr auseinandergedriftet sind. Selbst bei der Hardwarebedienung stellt man fest, dass unterschiedliche Bedienelemente und unterschiedliche Weisen zum Einstellen von Produkten benutzt werden.
Deswegen haben wir uns entschieden, eine ganze Abteilung zum Thema User Experience aufzubauen und dieser Abteilung auch die Entwicklung der Userführung zu übergeben. Unsere Software, der Vision-Assistent, ist jetzt das Ergebnis, und die O3D-Kameras sind eben die erste Produktreihe, die nach diesem Muster designt wurde. Es ist eine Plattform, auf der künftig mehrere Produkte bedient werden.
War dazu gleich eine ganze neue Abteilung nötig?
Mike Gonschior: Die Produkte in ihrer Bedienung zusammenzuführen, war nur ein Ziel. Wir haben es darüber hinaus als ein wichtiges Ziel für ifm definiert, dass wir uns über Usability einen deutlichen Marktvorteil erarbeiten wollen. Das ist tatsächlich ein Chefthema bei uns. Deshalb die neue Abteilung, die genau das forciert. Die langfristig sicherstellen soll, dass unsere Produkte, auch wenn sie komplexer sind, einfach bedienbar bleiben – und das auch produktübergreifend. Der Anwender muss sich nicht ständig in andere Bedienkonzepte einarbeiten, was wir am Ende auch für einen großen Wettbewerbsvorteil halten.
Warum ist Ihnen das Thema einfache Bedienung so wichtig?
Mike Gonschior: Warum war das Smartphone von Apple so ein Durchstarter? Das lag tatsächlich an der Bedienerführung. So ein Smartphone ist ja eine Wunderwaffe. Der eine nutzt es zum Telefonieren, der Nächste liest darüber Bücher, der Nächste schreibt Mails damit, der Nächste nutzt es als Kamera, ein Weiterer scannt damit zum Beispiel Visitenkarten ein. Aber im Grunde ist es so, dass kein Mensch so eine Vielseitigkeit bedienen kann. Das klappt nur, weil diese Vielseitigkeit hier in Apps strukturiert ist, also in klare, applikationsspezifisch zusammengeschrumpfte Bedienungsumfänge. Genau das gleiche Prinzip haben wir für unsere Geräte auch angestrebt. Denn die Erfahrung der Menschen beruht ja nicht nur auf ihrem Arbeitsumfeld, sondern sie bekommen auch extrem viele Einflüsse von Consumer-Produkten. Und somit wächst der Anspruch jedes Einzelnen auch für Industrieprodukte.
Aber ein bisschen App-Design reicht ja nicht. Die Bedienung beim iPhone war ja nicht nur hübsch und einfach, sondern revolutionär intuitiv.
Karolina Beck: Genau: Ein nutzerzentrierter Entwicklungsprozess setzt voraus, dass wir exakt wissen, wie die Anwender mit den Produkten eigentlich am Ende umgehen. Wie sieht der Kontext aus, in dem der Nutzer arbeitet? Welche Aufgaben hat er überhaupt? Wie geht er damit um, wo sind die Probleme, die auftauchen? Und wie stellt er es an, diese zu lösen? Um zu wissen, was einfache Bedienung ist, muss man auch unterscheiden, für wen welche Bedienung einfach ist – und warum. Wer ist die Zielgruppe, wer ist eine Persona? In unserem Fall haben wir drei Personas definiert. Der eine ist der Spezialist, der Bildverarbeiter und SPS-Programmierer. Der zweite ist der Instandhalter, ein Generalist, der seine Applikation schnell und einfach lösen will. Und der dritte ist unser eigener Vertriebsmitarbeiter. Und während ein Bildverarbeiter im Einrichtbetrieb die gesamte Übersicht aller Funktionen braucht, möchte ein Instandhalter am besten in fünf Schritten am Ziel sein.
Wie sind Sie denn operativ an das Wissen gekommen, was der User tatsächlich möchte? Ich meine, die Industrie ist relativ heterogen, da gibt es viele unterschiedliche Ansätze.
Karolina Beck: Der User-Experience-Prozess teilt sich in drei Phasen. Man hat die Analysephase, die Konzeption und dann die Umsetzung. In der Analysephase benutzt man Methoden aus der Ethnographie und der Psychologie. Das sind oft Interviews. Wir führen Gespräche mit den Nutzern. Wir fragen nicht vordergründig, was sie wollen, sondern wie sie etwas tun und mit welchem Ziel. Eine andere Methode ist einfach Beobachten: Wie geht er mit dem System um? Da lohnt es sich manchmal, mit dem Anwender einen Arbeitstag zu verbringen, um ein Gefühl dafür zu entwickeln, was für ihn wichtig und was weniger wichtig ist. Man beobachtet seinen Arbeitsalltag und wie er Probleme bewältigt.
Im Nachhinein werden dann die genannten Personas erstellt. Das sind Modelle von typischen Nutzern, die es ermöglichen, Produkte mit mehr Empathie für den Anwender zu entwickeln. Danach geht man hin und erstellt Szenarien: In welchem Kontext wird das Produkt denn genutzt, welche Aufgabe, welches Ziel und welches Bedürfnis hat der Nutzer? Es ist ja eine ganz andere Nutzung, wenn Sie Zeit haben und wenn Sie das Produkt in Ruhe einstellen können, als wenn vor Ort die Hütte brennt und hinter Ihnen einer steht, der weiterhin seine Maschine bedienen möchte. Das ist ein ganz anderer Kontext, da müssen Sie ganz anders agieren können. Anschließend werden Interaktionskonzepte erarbeitet und in den Szenarien getestet. Am Schluss werden Prototypen erstellt und Usability-Tests mit den definierten Personas durchgeführt.