jump to navigation

Interview: Wenn Dinge sprechen lernen May 18, 2011

Posted by Wolfgang Tonninger in Business, Business_Intelligence, Interviews, New World of Work, Trends, User-Experience.
trackback

Es ist ziemlich genau 10 Jahre her, dass Forscher vom PARC-Institute ein Projekt starteten, in dem sie alles „taggten“, was ihnen unterkam. Vom Papier für den Kopierer, über den Kopierer selbst, bis hin zu Büchern und Kaffeemaschinen im Lab. Mit dem Effekt, dass jeder, der in dieser eLandschaft unterwegs war, nicht nur zusätzliche Informationen über die Gegenstände abrufen konnte, die er gerade passierte, sondern auch mit ihnen interagieren konnte. Brachte man ein Französisch-Lexikon in die Nähe eines Computers, so konnte man den Text, den man gerade englisch vor sich hatte, in der französischen Übersetzung lesen und umgekehrt. Damals vor 10 Jahren war das ein beherzter Wurf in die Zukunft des kontext-sensitiven Computings – in eine Welt, die zur „Augmented Reality“ wird, in der alle Objekte über elektronische Erkennungszeichen (eTags) eingelesen und inhaliert werden. Heute sind wir soweit, dass Dinge zu reden beginnen, oder zumindest zu „tweeten“.

Anlässlich der SIME-Konferenz in Wien trafen wir Werner Weihs-Sedivy, CEO und Gründer des österreichischen Startups twingz und stellten ihm ein paar Fragen.

ReadyBlog: Herr Weihs-Sedivy, sind Sie der Doktor Doolitle der Dinge?

imageWerner Weihs-Sedivy: Zunächst einmal: Danke für die Einleitung. Es freut mich sehr, dass wir über das Internet of Things (#iot) bzw. Web of Things (#wot) sprechen. Tagging war ein Anfang, um Informationsströme mit realen Dingen zu verbinden und abfragbar zu machen. Dazu kommt die Ebene der Interaktion – also konkrete Handlungen und Steuerkommandos –, sowie der Anspruch der Individualisierung. Mit twingz konzentrieren wir uns auf Dinge, zu denen Menschen eine Art emotionaler Bindung haben, insofern passt Dr. Doolittle der Dinge sehr gut. Wir haben aber, bei aller “Dinglastigkeit” vor allem die Menschen mit ihren Anforderungen und Wünschen im Blickfeld – das treibt uns an.

ReadyBlog: Bei Ihnen dreht sich alles um kontextuelle also situationsbezogene Informationen. Das heißt, es geht ihnen um die Kommunikation zwischen Menschen und Dingen, wie ihr Statement im Web verdeutlicht: „Scientist state that in the „Internet Of Things Era“ things could talk to each other. We state: that’s boring!“. Gibt es Beispiele aus der Praxis, die diesen Zugang besonders gut erklären?

Werner Weihs-Sedivy:
Wir sehen das so: Die Kommunikation mit Dingen (steuern, abfragen, teilen, alarmiert werden,…) muss kontextuell in die Lebenswelt von Menschen einbettbar sein und auch sukzessive eingebettet werden. Sonst kann es keine nachhaltige Nutzerakzeptanz geben. Um auf das konkrete Statement zurückzukommen: Maschinen werden schon auch miteinander kommunizieren, aber nur, um für den Menschen passende Maßnahmen und Aktivitäten miteinander zu koordinieren und Alternativen abzustecken.

Ein Beispiel dazu: Ein Laderegler eines Elektrofahrzeuges kommuniziert mit einem Routenplanungssystem und einer Kalenderapplikation, um für die Aufgabe “Bringe unseren User zum Büro und seinen 2 Terminen heute untertags und dann zum Konzert abends” eine gute Lösung zu finden. Das heißt konkret, den Energiehaushalt des Fahrzeuges, die Möglichkeiten aufzutanken, die Routeninformationen und den Kalender unter einen sprichwörtlichen Hut zu bringen. Und das noch dazu, ohne den Nutzer mit “Sollen wir so oder so disponieren”-Ansätzen zu langweilen, sondern praktikable Lösungen vorzuschlagen, welche die wesentlichen Einflüsse der Umwelt und die Ziele des Nutzers vereinen. Optimieren kann man das Ganze dann immer noch nach verschiedenen Kriterien wie z.B. Energie-Minimierung, Maximierung des öffentlichen Fahrtanteiles usw.

ReadyBlog: Stichwort: Information Overload. Wird die Welt erträglich bleiben, wenn nun auch Dinge „tweeten“ oder können wir davon ausgehen, dass die Dinge – wie bei der Hundepfeife – in einer Frequenz miteinander kommunizieren, die wir nicht hören müssen?

Werner Weihs-Sedivy: Eine wesentliche Herausforderung besteht in unserem Bereich darin, sich auf die Verteilung wirklich relevanter Informationen und das Anbieten relevanter Interaktionsmöglichkeiten zu beschränken. Ein wenig oder nicht koordiniertes Kommunizieren mit Dingen führt schnell zu fehlender Akzeptanz oder zur Abschaltung – siehe http://www.youtube.com/watch?v=CMInv9UQVQw. Trotzdem wird der Spaß im Umgang mit Dingen gefördert – durch die Individualisierbarkeit bis hin zum “Slang”, in dem man von einem Ding angesprochen/angetextet werden wird.

ReadyBlog: Wo stehen wir in dieser Entwicklung heute und was wird die Zukunft bringen? Oder anders gefragt: Seit wann gibt es Twingz und wie lange wird es Twingz geben?

Werner Weihs-Sedivy: Wir stehen in den ersten Schritten eines längeren Entwicklungszyklus. An unserem Konzept haben wir 2 Jahre gearbeitet und letzten November haben wir das Unternehmen gegründet. Technologisch ist heute schon viel möglich, was für Nutzer jedoch noch wenig Sinn macht. Deshalb besteht der Kunstgriff darin, mit dem zu beginnen, was Nutzen bringt und Spaß macht. Wir haben dazu Umfragen gemacht und sind nun dabei, erste B2C, B2B2C und B2B Test Cases zu implementieren.

Danke für das Gespräch und: Halten Sie uns am Laufenden!

Und hier noch eine brandaktuelle Buchempfehlung zum Thema: Architecting the Internet of Things


Comments»

1. twingz blog - May 20, 2011

[…] Of Things und welche Einflüsse wir als community darauf nehmen können. Interessante Fragen von Business Ready Blog im Rahmen eines SIME 2011 blog-interview with twingz.  …Mit twingz konzentrieren wir uns […]


Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out / Change )

Twitter picture

You are commenting using your Twitter account. Log Out / Change )

Facebook photo

You are commenting using your Facebook account. Log Out / Change )

Google+ photo

You are commenting using your Google+ account. Log Out / Change )

Connecting to %s

%d bloggers like this: