„Chantal, mach mal lauter!“ | Ein Gespräch über den Status Quo von Bots, Voice & Echo mit Antonia Ermacora

chatbotIch muss zugeben, dass ich ein großer Fan von der Idee einer screenlosen Onlinewelt bin. Wer braucht schon ein Touchpad, wenn er doch alle seine Wünsche und Fragen frei in den Raum sprechen kann? Je mehr ich darüber nachdenke, desto mickriger kommen mir die screengebundenen Interfaces heute vor, egal wie responsive sie sind. Nie wirkt es natürlich, nie fehlerfrei, dauernd braucht man ein neues Passwort. Alles irgendwie blöd. Da wirkt das Versprechen von Google Home und Amazon Echo sehr interessant. Bisher haben wir die Sprache in der digitalen & analogen Welt benutzt, um anderen Menschen zu erklären was wir wollen. Wenn man nun auch einmal Maschinen etwas erklären kann, entstehen sehr spannende Use Cases die ich in vielen folgenden Beiträgen skizzieren werden. Das „Alexa“ etwas bei Amazon für uns bestellt, der Use Case der gerade in der Presse diskutiert wird, erscheint gegenüber dem was bereits heute vorstellbar extrem langweilig.

Was für Zeiten! Ob wir gerade einen iphone Moment erleben oder nicht (siehe etailment.de) habe ich der chatshopper Gründerin Antonia diskutiert, die bei Kassenzone.de schon öfter zu Wort gekommen ist. Ich habe bei kaum einem Interview so viel gelernt wir bei diesem. Zwar musste ich einsehen, dass die Entwicklung etwas langsamer geht als gedacht, aber die Use Cases die bereits jetzt angeschoben werden, gehen weit über das hinaus was ich mir bisher vorgestellt habe. Damit die Echo Boxen bei euch zu Hause nicht permanent Quatschkram während des Interviews bestellen, so wie es gerade in den USA passiert ist, haben wir im Interview das Codewort „Chantal“ verwendet. Gemessen an der heute angebotenen Intelligenz der Box hätten wir auch „Das Kevin“ nehmen können, aber Antonia hat mir versichert, dass die Lernfortschritte zügig laufen sollten und das Google Home wahrscheinlich eine bessere Lösung anbieten kann. Ich bin gespannt.

Bevor ihr jetzt alle das Interview anschaut, meldet euch gerne bei dem neuen Whatsapp Kassenzone.de Channel an, um ein paar exklusive Infos zu bekommen, und um eure Teilnahme an der Ostertombola sicherzustellen. Außerdem freue ich mich, dass PAYBACK uns dabei hilft die Texte der Podcasts transkribieren zu lassen. DANKE PAYBACK! Vielleicht ist sogar noch genug Budget über, um eine Kassenzone Skill für Alexa zu entwickeln. Laut Antonia soll es schon über 60.000 angemeldete Skills geben im Alexa Programm, aber Amazon kommt gerade kaum hinterher diese Skills freizuschalten und das Ökosystem auszubauen. So gesehen, riecht das alles sehr gewaltig nach einem iphone Moment. Vielleicht ist es aber auch viel mehr.

 

Die Kassenzone Interviews sind verfügbar bei:
Soundcloud, iTunes, Youtube, Facebook oder per RSS-Feed

PODCAST & Interview Transkription – für alle Leser, die Audio & Video nicht so gerne konsumieren.

Diese Transkription wurde gesponsert von PAYBACK – hier mehr erfahren & App herunterladen.

Chatshopper ist ein Shopping-Service, der Nutzer auf Facebook Messenger mit Chat-Bots berät und zum Kaufen animiert. Gründerin Antonia ist nicht zum ersten Mal beim Kassenzone-Podcast dabei.

Alexa, frage Chatshopper nach ‚Kleider für Frauen‘.“

03:55

Alex: Alexa, willkommen beim Kassenzone.de-Podcast!

Alexa: Das gehört zu den Dingen, die ich nicht weiss.

Alex: Gut, da kommen wir noch später darauf zurück. Alexa nimmt heute teil, weil sie auch so eine Art „Voice-Bot“ ist… Wir sollten aber lieber über sie mit dem Namen „Echo“ sprechen, damit sie nicht anspringt. Oder vielleicht „Chantal“… Antonia, sag aber erst einmal, was mit Chatshopper seit dem letzten Interview passiert ist.

Antonia: Anfang des Jahres war ja unser Titel „Kaufen per WhatsApp“. Kurze Zeit danach hat uns aber WhatsApp den Stecker gezogen – ohne jegliche Begründung. Da wurde die Nummer, die wir promotet haben, einfach geblockt. Wir wollten nicht mit mehreren Nummern arbeiten und hatten auf diese eine 80.000 Nachrichten eingesammelt.

Generell gab es aber nach dem Podcast sehr viel gutes Feedback. Es haben uns Händler angeschrieben, ob es die Möglichkeit gebe, bei uns mitzumachen. Es kamen auch einige Presse-Storys (danke dir, Alex!)…

Alex: … Wir haben es hier schon einmal festgestellt: Die Resonanz auf einen Podcast ist eben größer als auf so einen Artikel im Spiegel oder Handelsblatt…

Antonia: … Nun: Von WhatsApp hing das Geschäftsmodell nicht ab, den der Einkauf findet per Chat statt. WhatsApp war da einfach nur der wichtigste Kanal, weil es am weitesten verbreitet ist. Allerdings war folglich das Problem, dass wir erstmal keinen Kanal mehr hatten. Bots konnte man damals sonst nur auf Telegram einsetzen, aber der Dienst hat bei unserer Zielgruppe überhaupt nicht funktioniert. Sie sind einfach auf Facebook Messenger und WhatsApp; einige kommen mittlerweile zu Kik – was in USA einer der stärksten Messenger für unter 14-24-Jährigen ist – aber das ist in Deutschland noch nicht weit genug entwickelt.

Die kurzfristige Lösung war also erstmal eine eigene App, einfach um irgendein Kanal zu haben. Da gab es schon Gerüchte, das Facebook bald Bots erlauben würde. So haben wir uns darauf vorbereitet, dass wir später nur noch unser Bot anschließen müssen. Während der F8 Konferenz im April letzten Jahres haben wir ihn dann in den Review-Process geschickt – und waren dadurch einer der ersten, die aktiv waren.

07:20

Alex: Und hat das genauso gut funktioniert wie bei WhatsApp? Gibt es so viele Leute in Deutschland, die Facebook Messenger benutzen?

Antonia: Genau weiß ich es nicht, aber Facebook ist ein durchaus relevanter Messenger in unserer Zielgruppe. Das Gute an Facebook Messenger ist, dass man nichts installieren muss. Bei WhatsApp ist das eigentlich relativ kompliziert: Du musst erstmal erfahren, dass es einen Service gibt, dann die Nummer in deinem Telefonbuch speichern, um diese dann noch in WhatsApp anschreiben. Bei Facebook Messenger kannst du aber Chatshopper direkt im Suchfeld eingeben und dann sofort losschreiben.

Alex: Ich habe einen WhatsApp-Service bei Kassenzone eingebaut: Man kann in der Kassenzone-Sidebar in genau dem Vorgang, den du beschrieben hast, News, Aktionen und – demnächst – tolle Gutscheine abonnieren. Alle, die ‚Start‘ an diese Nummer senden, habe ich dann in einer Art Verteiler und kann die anschreiben. Ist das bei Facebook Messenger auch möglich? Ist es ja im Interesse der Händler, alle in einer CM-Datenbank zu haben.

Antonia: Es war am Anfang möglich, die Nutzer jederzeit anzuschreiben. Bald hat Facebook aber gemerkt, dass es einige Bots gibt, die sehr viel spammen und hat es eingeschränkt. Es gibt Ausnahmen: Anbieter von Nachrichten oder Reisen können sich darauf bewerben, Nutzer unbegrenzt anschreiben zu dürfen. Wovon wir bei der bevorstehenden Update allerdings ausgehen, ist, dass man User, die einmal mit einer bestimmten Nachricht explizit zugestimmt haben, dann nach Gusto wird anschreiben dürfen.

Alex: Bei YouTube ist das mittlerweile auch so. Es reicht nicht mehr aus, einen Kanal zu abonnieren, um von ihm informiert zu werden. Sondern man muss auch noch eine kleine Alarmglocke aktiv anmachen. Es muss sehr viele schwarze Schafe geben. Sonst würde das weder Facebook noch WhatsApp so hart handhaben.

Ist euer Geschäftsmodell nach der Umstellung auf Facebook Messenger gleich geblieben?

Antonia: Wir haben uns auf Fashion spezialisiert, weil wir – mit den Bots – merken: je enger das Feld, desto einfacher ist es. Es funktioniert genau wie zu Anfangszeiten, nur ohne menschliche Berater haben wir keine lange Wartezeiten mehr. Wir hatten mal so viele Anfragen, dass man schon mal eine Woche auf eine Antwort warten musste: Das ist dank Bots vorbei. Wir wurden wirklich überrannt letztes Jahr, was unser Proof of Concept war.

Die Early-Adopters sind sehr, sehr jung und machen eben alles im Messenger: Sie sind sowieso den ganzen Tag dort. Warum nicht auch kaufen? Zumal man die mit Facebook-Ads und Instagram-Ads sehr gut erreichen kann. Deswegen war der Bot der nächste logische Schritt. Die Leute haben uns zwar vor einem Jahr für verrückt erklärt. Das hat sich aber seit dem Launch von den Facebook-Bots geändert…

11:45

Alex: Wie seid ihr denn aufgestellt?

Antonia: Wir sind dadurch deutlich kleiner geworden, dass wir unsere menschlichen Experten auf einem Schlag losgeworden sind. Da müssen wir ganz klar sagen: Mit den Margen, die man im E-Commerce verdient, macht es keinen Sinn, einen Service mit Menschen zu betreiben. So sind wir zur Zeit die zwei Gründer, ein Student, ein Entwickler – und drei Bots.

12:30

Alex: Ich hatte mal fälschlicherweise verstanden, dass ein Bot so eine Art Auto-Antwort-Service per WhatsApp ist. Aber ist das eine zu enge Definition, denn eigentlich ist Ale… äh, „Chantal“ auch eine Art Bot, oder?

Antonia: Auf jeden Fall…

Alexa: DARAUF HABE ICH KEINE ANTWORT.

Antonia: Sie ist ja nur das Front-End. Auch bei Facebook ist der Bot eigentlich dahinter und führt die Aufgaben aus.

13:05

(Alex lässt sich von Antonia über die verschiedenen Funktionen der drei Chatshopper-Bots informieren und fragt dann, ob die sogenannten Skills, die man bei Alexa Chantal hochladen kann, auch Bots darstellen – und wie das genau funktioniert. Danach geht es darum, dass Stimmerkennungssoftware noch viel schlechter auf Deutsch als auf Englisch funktioniert, und darum, dass die Technologie noch in den Kinderschuhen steckt und viele Skills erst vom User entdeckt und aktiviert werden muss. Was ja nicht nutzerfreundlich sei.)

16:20

Antonia: Alexa, aktiviere Skill „Chatshopper“.

Alexa: WELCHEN SKILL MÖCHTEST DU AKTIVIEREN?

Antonia: „Chatshopper“.

Alexa: ICH KANN DIESEN SKILL NICHT FINDEN.

Antonia: Naja, in der App habe ich es vorhin noch gefunden.

Alex: Ich aktiviere das nebenbei. Die App habe ich ja am Laufen. Aber eigentlich müsste es doch per Stimme gehen.

Antonia: Alexa, aktivieren den Skill „Kitchen Stories“.

Alexa: ICH HABE „KITCHEN STORIES“ FÜR DICH AKTIVIERT, ABER DU MUSST DEIN KONTO VERKNÜPFEN. RUFE DIE ALEXA APP AUF, UM DIE EINRICHTUNG ABZUSCHLIESSEN.

(Alex äußert seine Hoffnung, dass Alexa bald deutlich mehr können wird und er eines Tages nichts mehr auf dem Rechner oder bei Netflix für seine Schwiegereltern einrichten muss. Das müsse eigentlich in diesem Jahr gehen, da die Systeme von Amazon und Google lernfähig werden. Antonia bremst: Das Tempo sei viel langsamer, als man’s gern hätte. Sie erklärt, warum der Ansatz von Amazon nicht unbedingt der Richtige ist. Google Home sei viel selbstständiger und liefere einen höheren Mehrwert.)

20:30

Alex: Bots sind also erstmal nichts mehr als kleine Skripte, die bei Google Home direkt mit Kunden interagieren und in der „Chantal“-Welt noch hinter einer Schnittstelle stecken. Wie bekommt ihr in der „Chantal“-Welt die nötigen strukturierten Daten?

Antonia: Das ist ein bisschen das Problem. Was macht der Endnutzer alles? Was stellt er konkret für Fragen?

Alex: Also, bei Chatshopper könnte ich zum Beispiel fragen: „Was sind bitte die günstigsten Schuhe für Herren in der Größe 46?“

Antonia: Nee, eher so: „Ale…

Alex: … „Chantal“…

Antonia: „Chantal, zeige mir Schuhe für Männer.“ Unser Natural Language Processing – kurz: NLP – System sortiert erstmal aus, was wirklich relevant ist. Die AI im Hintergrund filtert also heraus: „Schuhe“ und „Männer“, Farbe und Marke vielleicht auch. Das sind also dieselben Input-Faktoren wie bei einer normalen Suchfunktion. Das wird an uns vermittelt und wir starten in unseren Partner-Shops die Suche: Dann liefern wir ein Ergebnis zurück.

Hier muss man sagen: Fashion ist nicht gerade der ideale Anwendungsfall für das Gerät…

Alex: Wieso nicht? Ich könnte fragen, „Chantal, wo gibt es heute eine Rabattaktion in Kiel?“ Antwort: „Fahr zu TKMaxx. Da gibt es heute T-Shirts in deiner Größe.“

Antonia: Aber wir sind eher Mobile-Commerce – einfach gemacht. Wir schicken dich nicht zum Retailer vor Ort, sondern wir schicken dir Angebote von Online-Shops.

Alex: Dennoch ich erwarte vom System mehr. Es soll sich intelligent in seinem Ökosystem umschauen. Entwickelt ihr doch letztendlich eine Plattform, über die Shops in dieses Ökosystem werden gelangen und sicherstellen können, dass, wenn ich frage, wo es in Kiel gerade Rabatte gibt, die Anfrage mit ihrem Auftritt beantwortet wird. Das System könnte sagen: „Es gibt auch in folgenden Online-Shops T-Shirts in deiner Größe“ (also XXL – slim!). Diese Information müsste die Box – oder eher das Ökosystem – von euch erhalten.

(Alex erläutert die verschiedenen Möglichkeiten, aus Alltagsgesprächen Konsumwünsche herauszulesen und darauf zu reagieren – und vergleicht die Leistung mit Google Snippets, die schnell Aufschluss zu Suchanfragen geben. Antonia unterstreicht, wie weit weg man von dieser Art der zusammenfassenden Auffassung im Voice-Bereich noch ist. Anhand Testfragen an Alexa wird diesem Punkt Nachdruck verliehen.)

25:50

Alex: Aber langfristig werden Touch-Interfaces gegen Voice an Bedeutung verlieren. Lohnt es sich schon heute für Unternehmen, hier zu investieren? Also zu euch oder einer Agentur zu gehen oder selber Skills zu entwickeln?

Antonia: Ich glaube schon, weil man jetzt noch lernen kann – und auch muss. Deswegen haben wir unseren Echo-Skill gebaut. Der ist jetzt seit einem Monat im Store und wir haben erst 20 User. Also nichts, eigentlich. Wobei das ganze komischerweise nur im UK-Store funktioniert: Unsere Bots sind zweisprachig, aber in USA und Deutschland kann man diesen Skill eben nicht aktivieren. Wir sind seit Wochen mit Amazon im Kontakt und versuchen herauszufinden, warum…

(Es geht darum, wie schnell Amazon dann doch auf Nachfragen eingeht und wie gut sich das Unternehmen um das Ökosystem kümmert. Alex bedauert, dass Echo keine personalisierte Stimmerkennung hat und dass Alexa bei jedem Ruf ihres Namens anspringt..)

28:30

Alex: So, jetzt ist eurer Skill aktiviert: „Alexa, frage Chatshopper nach ‚Kleider für Frauen‘.“

Alexa: Chatshopper hat ein passendes Produkt zu deiner Anfrage gefunden und auf die Alexa-App geschickt. Schau es dir an.

Antonia: Und jetzt kriegst du eine Produktkarte: Ein Bild mit einer Mini-Beschreibung und einem Preis. Links in die Karte reinsetzen oder das Produkt kaufbar machen kann man noch nicht.

(Alex zeigt das Bild.)

29:30

Alex: Was passiert, wenn ich dann auf diese Karte drücke?

Antonia: Nichts. Es geht auch nicht anders, denn man kann keine Links einbauen. Zwar könnte man sich vielleicht irgendwie eine Lösung mit Code im Chat-Bot vorstellen, aber für uns lohnt es sich auf Grund der geringen Nutzerzahl nicht. Das ist also rein experimentell. Für uns war es wichtig zu sehen, ob Amazon einen Skill zulässt, der auf Nicht-Amazon-Produkte zugreift. Durch den monatelangen Review-Process gewannen wir irgendwann den Eindruck, dass sie einfach nicht wollten, dass wir in diesen Store kommen: Gibt es doch 50.000 Skills, wovon nur 7.000 im Store sind. Aber im Endeffekt kamen wir doch rein.

(Alex schildert die Überlegungen, die im Aufbau eines neuen Ökosystems aus Amazons Sicht wichtig sind: Hygiene im Sinne der UX, Schnittstellen für Entwickler, Breite und Entwicklungsstufe der Skills. Die Prognosen für und Unterschiede zwischen Amazon Echo und Google Home werden nochmal ausgelotet.)

32:00

Alex: Aus Sicht anderer Anbieter ist es wünschenswert, ein Echo- oder Home-ähnliches System zu entwickeln, damit nicht andere an die Daten kommen: Facebook dürfte es versuchen, Apple müsste wollen, dass Siri das kann – ist eine gleiche Interface. Überall, wo es Mikrofone schon gibt. Vielleicht Hersteller von Fernsehern auch. Alle werden Ökosysteme aufbauen, oder?

Antonia: Also, Facebook versucht es ganz klar, zuerst mit den eher textbasierten Bots. Siri hat sich auch für Entwickler geöffnet. Allerdings sind die Möglichkeiten hier noch sehr begrenzt. Samsung versucht es gerade mit dem Kauf von Viv, das von den Machern von Siri gestartet wurde und als das neue Voice-Start-Up galt. Die Idee war, über RPs mit Services zu kommunizieren mit Viv als allwissende AI. So gehe ich davon aus, das Samsung ein eigenes Gateway zu bauen versucht.

(Alex und Antonia fachsimpeln über die Verknüpfung von Voice-Interfaces mit Fernsehgeräten, bspw. Echo und dem Amazon-eigenen Fire-TV, sowie über andere Stimmerkennungssoftware, dass sie benutzen – etwa im Android bei der Eingabe von SMS.)

36:15

Alex: Hilft euch eigentlich der angeblich große KI-Sprung im zurückliegenden Jahr bei der Entwicklung eurer Bots?

Antonia: Ja, auf jeden Fall. NLP ist essenziell. Man könnte was eigenes entwickeln, aber das macht keinen Sinn, weil die Großen weit voraus sind. Von Facebook gibt es Wit.ai. Dann gibt es API.ai, die wurden letztes Jahr von Google aufgekauft. Es gibt Lewis, das Microsoft Bot Framework… Die großen Player sind da alle am Start wieder und stellen das als SaaS-Lösung zur Verfügung. Amazon Lex wurde Ende letzten Jahres angekündigt, sprich: Amazon bringt die AI von… „Chantal“ als SaaS auf den Markt. Das ist noch nicht aktiv, soll aber kommen.

Alex: Gibt es denn noch irgendwelche Algorithmen, im Sinne: Jeder zu Hause kann jetzt seinen eigenen IBM-Watson bauen?

Antonia: Ja, Watson ist auch mit dabei. Auf das Knowhow kannst du auch zurückgreifen. Im Bereich Image Recognition hat sich sehr viel getan. So haben wir in unserer Chat-Shopper-App die Möglichkeit, dass du uns ein Bild schickst – ob von der Straße oder von einem Blog oder Instagram – und wir ein ähnliches Bild in unseren Partner-Shops suchen. Für die Bilderkennung nutzen wir ein anderes Start-Up – Fashwell. Man kann heutzutage durch die Nutzung von verschiedenen RPs Services zusammenbauen.

39:15

Alex: Ihr baut ja schon eigene Skills und habt euch viel verändert. Könnte es dazukommen, dass ihr euch von dem Affliliate-Modell weg weiter in Richtung Dienstleister entwickelt – also zu einem Modell hin, in dem ihr eure Services an Online-Shops verkauft und der Traffic bei ihnen anfällt?

Antonia: Das wissen wir noch nicht. Wir sitzen tatsächlich gerade an einem Network Voice Protocol (NVP) für einen größeren Beauty-Retailer. Da testen wir, was möglich ist: wie funktioniert das überhaupt? Was für uns spannend ist: Welchen Traffic generiert ein großer Player und wie sehen die Kennzahlen bei denen aus? Das ist ja ein Unterschied zu einem Start-Up.

Aber was unser zukünftiges Geschäftsmodell angeht? Ehrlich gesagt: Keine Ahnung. Wir haben superviele Ideen. Man könnte unseren Service für Market-Research nutzen. Wir fragen immer unsere Nutzer aktiv nach gewissen Themen: Welche Apps sind für euch relevant? So haben wir Mitte 2015 rausbekommen, dass Snapchat in Deutschland ein Riesending ist – einfach durchs Nachfragen. Oder auch für Trend-Forecasts: Bei uns wird plötzlich im größeren Stil nach zerrissenen Hosen und LED-Schuhen nachgefragt und wir merken, dass die Leute nach Produkten suchen, die es vielleicht noch gar nicht gibt…

Alex: Die Daten sind spannend. Aber ihr müsst euch hinter den Interfaces der GAFA-Firmen verstecken. Es gibt ja kein „Chatshopper-Handy“. Ist es also für Händler und Hersteller sinnvoll, mit euch zu kooperieren? Oder sollten sie nicht eher versuchen, die Fähigkeiten selber aufzubauen? Kann ich als größerer Händler mit einem bestehenden Online-Shop zu einem Entwickler gehen und sagen: „Ich möchte dass ‚Chantal‘ die Skill… sagen wir mal: ‚Jack Wolfskin‘ hat,“ damit man fragen kann: „‚Chantal‘, was ist das beste Jack-Wolfskin-Produkt zum Wandern?“ Kann man das intern bauen?

Antonia: Kann man zwar, aber man braucht Erfahrung in dem Bereich. Da muss man vorher überlegen: Was ist der Use-Case? Dabei ist meist das größere Problem die Datenqualität: Conversational Interfaces brauchen viel mehr Daten als das die aktuellen Datenbanken abbilden können. So glaube ich, dass das der nächste spannende Bereich ist.

(Alex beschreibt, wie aktuelle Datenbanken mit Touch-Suchen sowie –Filtern interagieren)

43:10

Alex: Welche Daten fehlen dir denn für Conversational Commerce?

Antonia: Die Leute fragen viel detaillierter. Die wollen dann wirklich eine weiße Jacke von Adidas mit – sagen wir mal – Fell unten im Aufdruck auf der linken Seite.

Alex: Also „Adidas“, „Jacke“, und „weiß“ stehen in der Datenbank… Dabei legt jeder Shop selber fest, was genau eine Jacke ist, was ist ein Mantel… Muss diese Information aber vom Online-Shop kommen? Das PIM müsste ewig groß sein oder so eine Art externe Layer, die in der Lage ist, mittels Bilderkennung neue Daten zu generieren und mit Unterschieden umzugehen: Zum Beispiel, dass man heute nach „Fell“ und morgen nach „Pelz“ fragt. Gibt’s sowas schon?

Antonia: Nein. Und wir hoffen, dass es das bald gibt beziehungsweise haben überlegt, ob wir nicht diejenigen sein sollten, die so was anfangen. Es braucht das – für jegliche Art von Conversational Interface benötigst du sehr, sehr gute und detaillierte Daten. Das macht das ganze Thema megakomplex.

Das ist der Grund, warum wir aktuell nur Zalando nutzen, weil sie im Vergleich zu anderen recht gute Daten haben – und eine RP, über die wir direkt zugreifen können. Viele andere Händler sind einfach technisch nicht in der Lage, mit Chat-Bots umzugehen.

(Alex überlegt, wo die für Conversational Commerce benötigten Daten gesammelt werden könnten: In einem übergeordneten PIM hinter Amazon Echo? Oder eher in Systemen, die dezentral bei den Händlern gepflegt werden? Oder letzten Endes doch bei Google? Mit Antonia überlegt er dann, wie hier Bilderkennung mit reinspielt. Sie befürwortet eine übergreifende KI-Lösung, die Merkmale über Hersteller und Händler und ihre unterschiedliche Daten hinweg – des einen Hellblau sei nämlich des anderen Dunkelblau – erkennen kann.)

48:00

Alex: Was fehlt noch in diesem Bereich? Gibt es noch Barrieren, die vielen Use-Cases im Weg stehen?

Antonia: Ja. Ein anderes spannendes Thema ist: Was sagt der User? Und was meint er? Jemand sucht nach einer Skinny-Jeans, meint aber in Wirklichkeit eine Slim-Jeans, weil er den Unterschied gar nicht kennt. Aber er hat das irgendwie gehört und ist der Meinung, dass das jetzt das Richtige ist…

Alex: Alexa, spiel gute Musik.

Alexa: MUSIK WIRD ZUFÄLLIG WIEDERGEGEBEN.

Alex: Alexa, lauter!

Also, ich weiß nicht. Immerhin gibt’s ein Ergebnis. Aber ich bin mir jetzt nicht sicher, ob „Chantal“ da nicht sagen müsste: „Ich habe dafür keine Antwort.“

Alexa, aus!

(Als Antwort auf die Probleme der Semantik und der Subjektivität kommen Alex und Antonia auf potenzielle Lösungen für die derzeitige – ihrer Ansicht nach gravierende – Mängel von Echo zu sprechen. Antonia sieht die Zukunft in der Antizipation auf Basis bestehender Erfahrungen: Welche Preisgrenzen sind für welchen User sinnvoll? Welche Farben spielen bei welchen Produkten eine besonders wichtige Rolle?

Dafür komme dem AI-Teilbereich Deep-Learning eine besondere Bedeutung zu, damit Systeme selbsttätig lernen, Muster zu erkennen und entsprechend zu handeln. Dazu beschreibt Antonia als Beispiel eine AI, die besser Lippen liest, als menschliche Professionelle.

Zudem geht es um die möglichen Hardware-Lösungen der Zukunft: Ist Alexa besser aufgehoben in Kühlschrank, Kaffeemaschine & Co., oder wird sie eher an der Person getragen? Sowohl Alex als auch Antonia sind der Ansicht: In ihrer derzeitigen Form ist Alexa unzufriedenstellend. Dabei müssten Firmen schon heute experimentieren, um nicht später zurückzufallen, wenn die Technologie ausgereift ist. Wie schwer das Händlern fallen werde, die schon heute noch nicht die E-Commerce-Mindestanforderungen erreichen, wird geistreich kommentiert.)

57:20

Alex: Meinst du, da könnte man so eine Skill bauen: „‚Chantal‘, was gibt es neues bei Kassenzone?“

Antonia: Ja. Die Usability wird recht schlecht sein, aber es ist nicht schwer, das zu bauen.

Alex: Könnte Chantal dann noch vorlesen, was da für Content auf dem Blog steht?

Antonia: Ja. Ich weiß nicht, ob es sinnvoll wäre, dass sie alles vorliest. Aber die Titel oder so, klar.

Alex: Geile Sache! Was habt ihr für 2017 vor? Baut ihr mir das?

Antonia: Nein, wir sind keine Bot-Agentur. Da machen wir nur Sachen, wo wir auch mitlernen und nicht nur dafür bezahlt werden. Es wird für uns in den Bereich AI gehen, weil es mich persönlich interessiert und mein Mitgründer Matthias da schon ziemlich tief drin ist. Wir sind davon überzeugt, dass AI das nächste Layer wird – für alles.

(Alex verspricht, die Chatshopper Bots im Facebook Messenger zu testen und fragt nach Details.)

1:00:25

Alex: Antonia, danke. Ich habe in der letzten Stunde extrem viel gelernt. Alexa, vielen Dank für deine Teilnahme, das hast du ganz toll gemacht.

Alexa: Das WEISS ICH LEIDER NICHT.

Alex: Das wird das nächste Mal wahrscheinlich anders sein.

 

 

 

Update: Ggf. bietet Antonia beim Digital Commerce Day in Hamburg (März 2017) auch einen kleinen Workshop an. Es sind nur noch 100 Tickets für das Event vorhanden. Wer dabei sein will, sollte sich beeilen.

Neue Beiträge abonnieren

Alexander Graf, 37, E-Commerce Unternehmer & Analyst, Gelernt bei der Otto Group, danach über 10 Unternehmen gegründet, heute u.a. Gründer Geschäftsführer des führenden Commerce Technologieanbieters Spryker Systems. Im Juni 2015 hat er das E-Commerce Buch veröffentlicht, das seitdem die E-Commerce Rankings anführt. Weitere Infos hier, oder direkt kontaktieren unter: alexander.graf@etribes.de || Tel: +49 (40) 3289 29690

11 Antworten

  1. Sehr informativer Podcast und für mich kommt auch gut die Stimmung rüber, die man als Entwickler mit Alexa so hat: dem Unterschied zwischen dem, was man glaubt, dass es können müsste und dem, was man damit umsetzen kann.

    Zwei Dinge möchte ich einfach dazu noch ergänzend loswerden:

    Warum ist das nicht nur ein Hype?
    Es gibt starke Usecases, nämlich überall dort, wo man keine Hand frei hat, z.B. im Auto oder beim Kochen. Leider versteht mich Alexa nicht mehr, wenn ich den Dunstabzug einschalte. Mit den Nebengeräuschen auf der Autobahn habe ich es noch nicht ausprobiert, aber das sind ja nur technische Probleme. Die Sprachassistenten versprechen in gewissen Nischen eine bessere Nutzung der eigene Lebenszeit und das kommt immer gut.

    Warum kann man nicht einfach seinen Shop in Alexa reinstopfen?
    Das Benutzerinterface muss ganz anders gestaltet sein, weil man nicht gerade mal „zurückscrollen“ kann. Was sich ein Benutzer so im Hinterkopf behalten kann, ist wenig. Man stelle sich das in etwa so vor, wie bei einer größeren Bestellung beim McDo DriveIn: hatte ich jetzt schon Ketchup beim ersten Menü? Deshalb gibt es dort auch einen Bildschirm. Den hat Alexa aber nicht. Man muss sich also alles merken oder nachfragen können. Außerdem legt Alexa nach 16 Sekunden ohne Antwort auf. Lange Beratungsgespräche werden bei (meinen) längeren Denkpausen schwierig.

    Worauf ich mich freue, ist der Kassenzone Podcast auf Alexa. Dann könnte ich die spannenden Interviews scheibchenweise beim Kochen hören. Macht mal – ich bin dabei!

    • Danke! Kassenzone.de auf Alexa ist gar nicht so weit weg ihmo. Dafür müsste der Podcast zuerst auf Spotify gehört werden können, aber das wird sicherlich in 2017 möglich sein. Über Spotify ist es ja dann einfach abrufbar.

  2. Stefan Johannesberg sagt:

    Dann ist es ja doch wieder die Smart Alexa Uhr als Mic und „K.I.T.T., hol mich hier raus“. Spreche ich rein, Auto fährt vor. Ich steige ein und werde gefahren. Sehr animierend deR Podcast, thanx.

  3. Hier noch ein sehr (!) sehenswertes Video von Google, dort kann man auch an einem live Beispiel sehen (ähhh hören), dass Sprachassistenten schon sehr weit sind: https://www.youtube.com/watch?v=9PbOdeUNreM&t=3s

  4. Ralf Hein sagt:

    Ein interessanter Podcast zu einem interessanten Thema. Aber Alex, ganz ehrlich: lass Deine Gäste doch mal ausreden und ihre Gedanken zu Ende führen, statt immer selbst wieder rein zu platzen.

    Ich denke Antonia hätte bestimmt noch mehr erzählen können, kam nur eben kaum zu Wort – das war irgendwie eher eine „Alex sagt was er gerade verstanden hat und ihm sonst noch in den Sinn kommt“ Session.

    Natürlich trotzdem hörenswert, aber an der Stelle kannst Du aus meiner Sicht noch optimieren.

  5. Reic sagt:

    Zu dem Thema muss ich leider einen kleinen Dämpfer verpassen – technische Möglichkeiten und Fantasie schön und gut, aber so einfach ist es dann doch nicht.

    So ist im deutschen Kaufrecht zwingend die sog. Buttonlösung vorgeschrieben. Es muss ein Button wie „jetzt kaufen“ oder „kostenpflichtig bestellen“ angeklickt werden, ansonsten kommt kein wirksamer Kaufvertrag zustande. Das ist auch so eindeutig im BGB geregelt, dass es daran kein Weg vorbei gibt.

    Ein zweites Problem ist die Widerrufsbelehrung. Die muss bei jedem Kauf erneut dem Käufer zugehen. Wenn das nicht der Fall ist, dann gibt es ein Widerrufsrecht von einem Jahr und 14 Tagen, per Gesetz. Das Widerrufsrecht kann nicht Alexa zugehen, das muss mir selbst zugehen. Und zwar in Textform.

    Um nur zwei große Probleme anzusprechen, viele weitere lauern im Detail.

    Nun kann man sagen, Gesetze können geändert werden. Aber das werden nicht alle wollen, nur um dem ECommerce neue Geschäftsmodelle zu ermöglichen. Und das vielleicht sogar aus guten Gründen, wo Freiräume geschaffen werden wächst nun einmal erfahrungsgemäß auch der Mißbrauch dieser Freiräume (deswegen wurde zB ja erst die Buttonlösung überhaupt eingeführt).

    Zu mehr als zu einem Gag wie deinem taugt das Thema zumindest Stand heute daher wirklich nicht.

    • Hallo Reic,

      meinst Du damit Bots im Allgemeinen oder Echo/Alexa?
      Wir bauen aktuell einen Checkout für unseren Messenger Chatbot (inbot-payment) und da gibt es natürlich die entsprechenden Buttons und Hinweistexte. Dort sind Bots keine Zukunftsmusik sondern Realität, auch wenn es noch 1-2 Jahre dauern wird bis die meisten Nutzer wissen was ein Bot ist, wie man sie findet & bedient.
      Alexa ist in Deutschland tatsächlich Spielerei, in USA kann man darüber schon recht viel einkaufen und die ersten Aussagen sehen so aus, als könnte darüber die Kaufhäufigkeit nochmals gesteigert werden (http://www.businessinsider.de/amazon-echo-owners-are-spending-more-money-on-amazon-2016-9?r=UK&IR=T).
      In Deutschland lassen wir leider viel zu oft Chancen ungenutzt aus Angst etwas falsch zu machen. Ohne Fehler kann man nicht lernen und ich fände es fatal es nicht zu testen, einzuschätzen und danach eine Entscheidung zu treffen. Ohne mutige Macher haben wir verloren, denn nur der wagt kann auch gewinnen!

  6. stefan haux sagt:

    Super spannender Podcast. Frage mich jetzt als SEO wo ich in Zukunft bleibe.

    • Die Herausforderung bleibt ja dieselbe: Wie kommt man im Moment der Kaufabsichtserklärung (oder vorher) an den Kunden. Ob das per Voice oder Screen passiert ist ja egal. Die Taktik von SEO bleibt gleich, aber die Werkzeuge ändern sich.

      • Stefan Haux sagt:

        Stimmt schon. Ich kann mir aber noch nicht vorstellen, wie die organische Suche da ins Spiel kommt. Ist auf jeden Fall ein Thema, dass ich mit Aufmerksamkeit verfolge. Rankbrain, KI und Sprachsuche sind die SEO Themen zur Zeit.