Unsere Digitale-Assistenten-Expertin Corinna erklärt, weshalb es sich lohnt, die Natural Language Understanding (NLU) von Amazon und Google zu umgehen.
Wenn man einen Skill bzw. eine Erweiterung für Alexa oder den Google Assistant entwickeln möchte, stößt man schnell auf die Problematik, dass dies ohne die jeweilige Plattform-NLU nicht möglich ist, da sowohl Alexa als auch Google Assistant die Nutzung ihrer eigenen NLUs voraussetzen. Damit wollten wir uns allerdings nicht so einfach zufrieden geben. In den letzten Jahren haben wir daher nach einer Lösung gesucht, die uns unabhängig von den Plattform-NLUs macht, ohne vollständig auf sie verzichten zu müssen.
Wir nutzen die Amazon bzw. Google NLU nur, um die Eingabe des Nutzers zu unserer eigenen NLU weiterzuleiten. Dafür erkennt die Plattform-NLU die Spracheingabe des Nutzers als eine “Absicht”, also lediglich als “Das hier ist ein Satz.” Diese Satz wird dann unverarbeitet an unsere NLU weitergeleitet. Erst hier wird der Text interpretiert und eine Nutzerabsicht festgestellt, was uns viele Vorteile bietet.
Wird die plattformeigene NLU zur Erkennnung des Satzes verwendet, werden die für das Verständnis hinterlegten Daten, wie eine Liste aller Haltestellen für ÖPNV-Skills, sprachlich gewichtet. Das heißt: Nennt man Alexa die Haltestelle “Rottbitze”, wird sie wahrscheinlich “Rock Hits” verstehen, da ihr dieses Wort geläufiger ist als der ungewöhnliche Haltestellenname. Da wir bei Alexa auf das Umwandeln von Sprache in Text keinen Einfluss nehmen können, sind wir dieses Problem mit Synonymen angegangen. In unserer NLU ist für Rottbitze auch Rock Hits als Synonym hinterlegt, sodass unsere NLU die Nutzerabsicht trotzdem richtig erkennen kann.
Die ersten Skills haben wir mit Amazons-NLU entwickelt, bis wir langsam aber sicher an deren Grenzen stießen. Amazon beschränkt die Anzahl der möglichen Nutzerabsichten und enthaltenen Daten, um keine unerwartete Menge zu erhalten, die sie gegebenenfalls nicht handhaben können. Da wir aber beispielsweise mit allen Haltestellen in Nordrhein-Westfalen dieses Limit schnell überschritten hatten, mussten wir dafür eine Alternativ-Lösung finden. Und diese hat darüber hinaus auch noch viele weitere Vorteile.
Unsere NLU ist im Vergleich zu der Amazon-NLU in der Lage, den Kontext einer Anfrage zu erkennen. So kann sie z.B. zwischen “Morgen”, der Begrüßung, und “Morgen”, dem Tag, unterscheiden. Das ist ein riesiger Vorteil, da wir dadurch eine deutlich bessere Interpretation und Auswertung garantieren können.
Ein weiterer wichtiger Punkt ist der Datenschutz unserer Nutzer. Wenn wir weder auf Alexa noch auf Google Assistant angewiesen sind, können wir selbst bestimmen, wo die Nutzerdaten gespeichert werden und was mit ihnen passiert. Ebenso haben wir die volle Kontrolle über das datenschutzkonforme Nutzertracking zur Verbesserung des Assistenten.
Mehr Freiheiten bringen mehr Möglichkeiten. Wir können beispielsweise die NLU überall anschließen, sodass wir auch Apps oder Geräte ohne durchgängige Internetverbindung mit einem Assistenten ausstatten können, was z.B. mit der Amazon-NLU nicht möglich wäre. Weiterhin haben wir eine bessere Konfigurier- und Erweiterbarkeit. Wenn uns etwas an der Erkennung nicht gefällt, können wir es einfach selber anpassen und müssen nicht darauf hoffen, dass Amazon oder Google es umsetzen werden.
Die Amazons und Googles der Welt haben einen generalistischen Ansatz. Das bedeutet, sie stellen ein Werkzeug für Developer zur Verfügung, das möglichst alle Themen abdecken können muss, denn sie wissen ja nicht, was im Einzelnen genau damit entwickelt werden soll. Die NLU muss also später für Einkaufslisten genauso funktionieren wie für Spiele oder Fitness-Workouts. Dadurch haben sie im Detail Schwächen. Wenn wir unsere NLUs auf den Bereich ÖPNV fokussieren, dann wird die besser, als die generische NLU der großen Player.
Vitae congue eu consequat ac felis placerat vestibulum lectus mauris ultrices. Cursus sit amet dictum sit amet justo donec enim diam porttitor lacus luctus accumsan tortor posuere.
Vitae congue eu consequat ac felis placerat vestibulum lectus mauris ultrices. Cursus sit amet dictum sit amet justo donec enim diam porttitor lacus luctus accumsan tortor posuere.
Vitae congue eu consequat ac felis placerat vestibulum lectus mauris ultrices. Cursus sit amet dictum sit amet justo donec enim diam porttitor lacus luctus accumsan tortor posuere.
Vitae congue eu consequat ac felis placerat vestibulum lectus mauris ultrices. Cursus sit amet dictum sit amet justo donec enim diam porttitor lacus luctus accumsan tortor posuere.
Vitae congue eu consequat ac felis placerat vestibulum lectus mauris ultrices. Cursus sit amet dictum sit amet justo donec enim diam porttitor lacus luctus accumsan tortor posuere.
Vitae congue eu consequat ac felis placerat vestibulum lectus mauris ultrices. Cursus sit amet dictum sit amet justo donec enim diam porttitor lacus luctus accumsan tortor posuere.
Vitae congue eu consequat ac felis placerat vestibulum lectus mauris ultrices. Cursus sit amet dictum sit amet justo donec enim diam porttitor lacus luctus accumsan tortor posuere.
Vitae congue eu consequat ac felis placerat vestibulum lectus mauris ultrices. Cursus sit amet dictum sit amet justo donec enim diam porttitor lacus luctus accumsan tortor posuere.
Vitae congue eu consequat ac felis placerat vestibulum lectus mauris ultrices. Cursus sit amet dictum sit amet justo donec enim diam porttitor lacus luctus accumsan tortor posuere.
Vitae congue eu consequat ac felis placerat vestibulum lectus mauris ultrices. Cursus sit amet dictum sit amet justo donec enim diam porttitor lacus luctus accumsan tortor posuere.
Vitae congue eu consequat ac felis placerat vestibulum lectus mauris ultrices. Cursus sit amet dictum sit amet justo donec enim diam porttitor lacus luctus accumsan tortor posuere.
Vitae congue eu consequat ac felis placerat vestibulum lectus mauris ultrices. Cursus sit amet dictum sit amet justo donec enim diam porttitor lacus luctus accumsan tortor posuere.
Zu den wohl bekanntesten Sprachassistenten zählen Alexa von Amazon, Google Assistant von Google und Siri von Apple.
EntdeckenEntdeckenUnser Teamleiter für digitale KI-Assistenten Marcel Kaufmann hatte das Privileg, auf der renommierten 77. Kontiki Konferenz in Berlin einen Vortrag über KI-Sprachauskunft zu halten. Bei dieser Veranstaltung konnte er unsere neuesten Überlegungen und Ansätze im Bereich Künstliche Intelligenz und Spracherkennung präsentieren und diskutieren. Auch die Zusammenstellung des Vortragsblocks mit den Kollegen von T-Systems International und Microsoft Deutschland haben sich inhaltlich toll ergänzt.
EntdeckenEntdecken