TALK TO ME, BERLIN!

All focus on voice (and personality)

In nur 24 Stunden ein Voice User Interface entwickeln?

Beim Hackathon „TALK TO ME, BERLIN!“ nahmen wir zusammen mit 15 anderen Teams diese Challenge an: Wir entwickelten ein Voice User Interface (VUI) für Leihfahrräder, das Touristen durch Berlin führt. Besonderes Augenmerk legten wir dabei auf dessen Charakter und wurden belohnt: Für den Sprachassistenten „Alex the bear“ erhielten wir einen Preis für die beste Persönlichkeit.

BERLIN BRAUCHT EINEN BIKING-TOUR-GUIDE
Im Vorfeld generierten wir – ein Team aus Designern und Entwicklern – Ideen und loteten aus, welche das meiste Potenzial hat. Mit einem Sprachassistenten versehene Leihfahrräder, mit denen man direkt starten und die Stadt entdecken kann? Klingt verlockend, besonders für aktive und technikaffine Touristen, die Berlin erkunden wollen, ohne dauernd ihr Smartphone aus der Tasche holen zu müssen.

Über Szenarios zum Ziel

Beim Hackathon ermittelten wir mithilfe von verschiedenen Szenarios die Zielgruppe und Use Cases. Parallel beschäftigten wir uns einerseits genauer mit Nutzungsszenarios und programmierten andererseits konkrete Sprachdialoge auf dem Google Assistant mit Raspberry Pi. Besonders wichtig war uns dabei die Persönlichkeit unseres Sprachassistenten.

Bildquelle: talktome.berlin & Ferdinand Christian Weinrother (white-shift.com)

WIE GIBT MAN EINEM VUI PERSÖNLICHKEIT?
Was passt besser zu Berlin als ein Bär – das Berliner Wappentier? So entstand die Idee zu „Alex the bear“ und ein Großteil seiner Persönlichkeit war klar: gemütlich, trocken, lustig und mit Berliner Schnauze.

Wie brachten wir diese Persönlichkeit nun in ein VUI? Zunächst definierten wir das Geschlecht und Alter und wählten eine passende, freundliche Männerstimme aus. Wir legten die Tonalität mit Adjektiven fest und verfassten entsprechende Dialoge. Wie Alex in bestimmten Situationen reagieren würde, konnten wir über die Texte beeinflussen. Für so viel Individualität wurde Alex ausgezeichnet.
Die Konversation wurde als Google Action im grafischen „Dialogflow“ Editor erstellt und wird über den Google Assistant aufgerufen. Eine Google Action ist vergleichbar mit einem Alexa Skill.

 

PROBIERE ALEX AUS!
Sag „Hallo“, um Alex zu starten.

MEHR ALS EIN SPRACHASSISTENT
Letztlich setzten wir Alex als IoT-Prototyp um: Per Sprache führt Alex Touristen durch Berlin und erzählt ihnen mehr über die Themen, die sie interessieren. Von klassischen Sehenswürdigkeiten, über Street Art bis zur Späti-Tour ist für Jedermann etwas dabei. Außerdem erkennt das System über eine Kamera wichtige Denkmäler und weist seinen Fahrer darauf hin.

Wie funktioniert Alex?

„Alex the bear“ fällt nicht nur durch sein Konzept und die Gestaltung auf, auch die technische Umsetzung beinhaltet einige Besonderheiten. Das Kernstück besteht aus einem Raspberry Pi, der mit einem Lautsprecher, einem Mikrofon und einer Kamera verbunden ist. Diese Hardware wird fest in den Lenker der Leihfahrräder integriert.
Weil handelsübliche Geräte mit dem Google Assistant für unseren Use Case nicht passten, installierten wir das Google Assistant SDK, ein Software Development Kit, auf dem Raspberry Pi und programmierten darauf eine eigene Anwendung in Python. Dadurch konnten wir beispielsweise die Kamera in das VUI einbetten. Über die Google Vision API erkennt die Kamera alles, was sie aufnimmt, in Echtzeit und liefert dem Nutzer auf Wunsch weitere Infos zu den Objekten.

EXTERNE TEAM-MITGLIEDER

Timo Hausmann
Salwa Zeitoun

TEAM UID

Martina Uhlig, Martin Ecker

HIER MEHR

Kontakt

User Interface Design GmbH
www.uid.com

UIDlabs
Rankestraße 8
10789 Berlin
Deutschland