KI als Treiber der Mobilitätsinnovation: Wie wir den ÖPNV-Sektor neu gestalten

Die ersten Sprachassistenten kamen vor etwa einem Jahrzehnt auf den Markt und haben sich seitdem rasant weiterentwickelt. Anfangs waren diese Assistenten auf einen begrenzten Wortschatz und einfache Funktionen wie das Tätigen von Anrufen oder das Setzen von Erinnerungen beschränkt. Antworten wie 'Das habe ich nicht verstanden' waren daher häufig. Drittdienstleister erhielten über sogenannte Voice Apps die Möglichkeit eigene Funktionen in die Sprachassistenten zu integrieren.

Von einfachen Antworten zu intelligenten Systemen

Auch heute werden die damaligen Sprachassistenten noch genutzt. Allerdings sind diese Systeme nicht mehr regelbasiert und darauf beschränkt, vordefinierte klare Aufgaben zu erfüllen. Moderne Systeme nutzen neuronale Netzwerke, um Sprache zu verstehen, zu interpretieren und zu generieren. Damit sind sie in der Lage, Zusammenhänge und Muster zu erkennen, was dabei hilft, dem Nutzenden passende Rückfragen zu stellen oder Vorschläge zu unterbreiten. Auch falsch formulierte Eingaben, Rechtschreibfehler oder Mehrdeutigkeiten können von den neueren Systemen korrekt aufgelöst werden.

Von einfachen Antworten zu intelligenten Systemen

Die Grundlage moderner Sprachassistenten bildet der sogenannte Transformer, ein neuronales Netzwerkmodell, das in dem wegweisenden Forschungsprojekt Attention Is All You Need von Google und der University of Toronto vorgestellt wurde. Dieses Modell revolutionierte die Verarbeitung natürlicher Sprache (NLP), indem es es ermöglichte, komplexe Textzusammenhänge effizient zu analysieren. Der Transformer ermöglicht es, Wörter oder Phrasen innerhalb eines Textes in ihrem Kontext zu betrachten, unabhängig davon, wie weit sie voneinander entfernt sind. Im Gegensatz zu früheren Technologien, die Informationen schrittweise bearbeiteten, verarbeitet der Transformer Daten parallel und ist dadurch schneller und genauer. Diese Innovation hat die Landschaft der natürlichen Sprachverarbeitung (NLP) maßgeblich verändert und bildet die Grundlage für viele moderne Transformer-Architekturen wie GPT und BERT. Die Einführung des Transformer-Modells markierte einen Wendepunkt in der Entwicklung moderner Sprachsysteme. Doch die echte Leistungsstärke zeigt sich erst, wenn diese Technologie auf Large Language Models (LLMs) angewendet wird. Diese Modelle gehen über die grundlegenden Fähigkeiten des Transformers hinaus, indem sie mit enormen Datenmengen trainiert werden, um ein breites und tiefes Sprachverständnis zu entwickeln. Doch wie heben sich LLMs von traditionellen Systemen ab, und was macht sie so besonders?

Von Datenmengen zu Intelligenz: Die Lernprozesse von LLMs

Large Language Models (LLMs) werden mit umfangreichen Textdaten aus unterschiedlichsten Quellen wie Websites, PDFs oder Dokumenten trainiert. Während des Pre-Trainings lernt das Modell Sprachmuster, Kontexte und semantische Zusammenhänge zu erkennen. Es speichert dabei keine Rohdaten, sondern abstrahiert Wissen durch die Modellierung von Wortwahrscheinlichkeiten und -beziehungen. Dies ermöglicht es, Kontexte zu verstehen und auf Basis von Beispielen zu generalisieren.

Herausforderungen bei der Nutzung von LLMs im Mobilitätsbereich

Trotz ihrer beeindruckenden Leistungsfähigkeit stoßen Large Language Models (LLMs) in spezifischen Anwendungsbereichen wie dem Mobilitätssektor an ihre Grenzen. Während LLMs hervorragend allgemeine Sprachmuster verstehen und kontextbezogene Antworten generieren können, fehlen ihnen oft die Schnittstellen und das domänenspezifische Wissen, um auf detaillierte, lokale Anforderungen einzugehen.

Im Mobilitätsbereich bedeutet dies beispielsweise, dass Modelle ohne Anbindung an spezifische Fahrplan-, Tarif- oder Routendaten keine präzisen und praxisnahen Antworten liefern können. Statt einer konkreten Auskunft zu einer Abfahrtszeit oder einer Verbindung bieten sie häufig nur allgemeine Informationen oder Verweise wie „Besuchen Sie die Webseite des Verkehrsunternehmens“. Solche Antworten führen bei den Nutzenden schnell zu Frustration, da ihre unmittelbare Anfrage nicht zufriedenstellend beantwortet wird.

Hinzu kommt, dass LLMs standardmäßig nicht in der Lage sind, Echtzeitdaten wie Verspätungen oder aktuelle Verkehrsstörungen zu verarbeiten. Ohne eine gezielte Anpassung oder Integration mit externen Datenquellen bleibt ihre Funktionalität auf den allgemeinen Sprachgebrauch beschränkt.

Diese Herausforderungen zeigen, dass es nicht ausreicht, ein leistungsfähiges Modell einfach „von der Stange“ zu übernehmen. Vielmehr bedarf es gezielter Anpassungen, umfangreicher Integration mit branchenspezifischen Datenquellen und einer Berücksichtigung der besonderen Anforderungen, die im Mobilitätsbereich – und speziell bei regionalen Verkehrsunternehmen – bestehen. Nur so können LLMs ihr Potenzial ausschöpfen und zu einer echten Hilfe für die Nutzenden werden.

Unsere Expertise: LLMs für den Mobilitätssektor

Anders als Unternehmen ohne Vorerfahrung im Mobilitätssektor verfügen wir sowohl über fundiertes Fachwissen im Bereich der künstlichen Intelligenz als auch in der Mobilitätsbranche. Dies ermöglicht uns, Large Language Models (LLMs) gezielt an die spezifischen Anforderungen des öffentlichen Nahverkehrs und regionaler Verkehrsunternehmen anzupassen.

Unsere Stärke liegt insbesondere in der Anbindung von LLMs an komplexe Auskunftssysteme. Solche Schnittstellen erfordern ein tiefes Verständnis der technischen und operativen Strukturen von Verkehrssystemen. In Deutschland gibt es nur wenige Unternehmen, die über die notwendige Expertise verfügen, um diese anspruchsvollen Integrationen effizient umzusetzen. Wir sind in der Lage, dynamische Informationen wie Echtzeitdaten zu Fahrplänen, Tarifdetails oder Routenberechnungen zuverlässig einzubinden und so den Nutzenden hochaktuelle und relevante Informationen bereitzustellen.

Ein weiteres Alleinstellungsmerkmal ist die Nutzung von Knowledge Graphen, mit denen wir passgenaue, nutzerzentrierte Vorschläge generieren können. Knowledge Graphen strukturieren Daten, indem sie Zusammenhänge zwischen verschiedenen Informationen sichtbar machen. Diese Technologie erlaubt es uns, die Bedürfnisse der Nutzenden gezielt zu analysieren und darauf basierende Empfehlungen zu geben. Für den Tourismusbereich bedeutet dies zum Beispiel: Reisende erhalten personalisierte Vorschläge für Sehenswürdigkeiten, Veranstaltungen oder nachhaltige Reisemöglichkeiten, die genau auf ihre individuellen Vorlieben abgestimmt sind.

Mit diesem Ansatz können wir nicht nur die Qualität der Auskunftssysteme verbessern, sondern auch einen wertvollen Beitrag zur regionalen Wirtschaft leisten, indem wir den Tourismus stärken und die Attraktivität der Region für Besucherinnen und Besucher erhöhen.

Von technischer Expertise zu Datenschutz und Betriebskosten

Die erfolgreiche Integration von LLMs in den Mobilitätssektor erfordert nicht nur technisches Know-how und innovative Technologien wie Knowledge Graphen, sondern auch einen verantwortungsvollen Umgang mit sensiblen Daten und eine nachhaltige Betriebsinfrastruktur. Gerade im öffentlichen Sektor sind Datenschutz und die Einhaltung gesetzlicher Vorgaben, wie der DSGVO, von zentraler Bedeutung. Ebenso entscheidend ist die Frage, wie die oft hohen Kosten für die Nutzung und das Hosting von LLMs effektiv gemanagt werden können, um eine langfristige, wirtschaftliche Lösung zu gewährleisten.

Hosting

Eine Grundformel lautet: Umso größer LLMs sind, umso leistungsfähiger werden sie. Große LLMs stellen für die Ausführung hohe Anforderungen an die Hardware. Anbieter der Anwendung müssen deshalb entweder selbst für die entsprechende Serverinfrastruktur sorgen, oder aber auf die Nutzung von Cloud-Diensten zurückgreifen.

Cloud-Dienste

Die Verwendung von Cloud-Diensten für die Verarbeitung von Sprachdaten und KI-Anwendungen bietet viele Vorteile. Cloud-Provider stellen nicht nur Endpunkte für KI-Modelle, wie etwa LLMs (Large Language Models), zur Verfügung – ähnlich wie OpenAI mit ChatGPT –, sondern ermöglichen es auch, eigene Modelle zu hosten und zu skalieren. Die benötigte Rechenleistung kann je nach Bedarf dynamisch abgerufen werden, ohne dass eigene Server angeschafft oder gewartet werden müssen. Darüber hinaus profitieren Cloud-basierte Sprachassistenten von großen Datenzentren, fortlaufenden Verbesserungen und einer hohen Verfügbarkeit. Eine wichtige Herausforderung bleibt jedoch die Datenverarbeitung: Besonders öffentliche Unternehmen müssen sicherstellen, dass ihre Daten während der Verarbeitung innerhalb der EU bleiben und den geltenden Datenschutzbestimmungen entsprechen.

Mit DSGVO-konformen Cloud-Services werben unter anderem STACKIT, die bereits die strengen Anforderungen von Deutschland und der EU erfüllen, sowie die AWS European Sovereign Cloud, die Ende 2025 die erste AWS-Region in Deutschland einführen möchte. Dies soll eine besonders hohe Datensouveränität gewährleisten, insbesondere für Anwendungen, bei denen personenbezogene Daten verarbeitet oder gespeichert werden. Dabei ist zu beachten, dass DSGVO-Konformität immer im Kontext der spezifischen Nutzung zu betrachten ist: Wenn etwa keine personenbezogenen Daten verarbeitet werden, können auch die aktuellen AWS-Regionen bereits als datenschutzkonform gelten. Die endgültige DSGVO-Konformität wird zudem oft erst durch die Einschätzung von Datenschutzexperten oder durch gerichtliche Entscheidungen bestätigt.

Eigener Server

Die Verwendung eines eigenen Servers klingt zunächst einmal gut, wenn nicht die ganzen Kosten für die Hardware, Einrichtung und Wartung dahinter stehen würde. Im Falle des Betreibens eines KI gestützten Sprachassistenten trägt der Hosting-Betreiber eine hohe Verantwortung was den Schutz der sensiblen Sprachdaten betrifft. Zudem werden für die Verarbeitung von Spracherkennung und und KI-Modelle leistungsstarke Prozessoren oder GPUs benötigt.

Wie Datenschutz & Leistungsstärke miteinander vereint werden können

Die Nutzung eines leistungsstarken KI-Modells wie GPT erfordert eine Lösung, die sowohl datenschutzrechtlichen Anforderungen gerecht wird als auch höchste technische Standards erfüllt. Für viele Unternehmen und Organisationen ist das Hosting eines solchen Modells in einer externen, dedizierten Cloud-Infrastruktur eine optimale Wahl.

Durch die Verwendung DSGVO-konformer Cloud-Services, wie etwa STACKIT oder der AWS European Sovereign Cloud, kann gewährleistet werden, dass alle Daten innerhalb der EU verarbeitet und gespeichert werden. Diese Cloud-Anbieter bieten die notwendige Rechenleistung, um große KI-Modelle effizient zu betreiben, und ermöglichen gleichzeitig eine vollständige Kontrolle über die Datenverarbeitung. Dies bedeutet, dass sensible Informationen weder an OpenAI noch an andere Drittanbieter weitergegeben werden, sondern ausschließlich in der dedizierten Infrastruktur der Organisation bleiben.

Ein weiterer Vorteil dieser Hosting-Option ist die Möglichkeit, das Modell individuell zu konfigurieren. Unternehmen können die Architektur und die Trainingsdaten anpassen, um spezifische Anforderungen zu erfüllen – sei es in Bezug auf Fachsprache, lokale Gegebenheiten oder besondere Anwendungsfälle. So lässt sich ein leistungsfähiges und zugleich datenschutzkonformes KI-System betreiben, das flexibel skalierbar ist und den Bedarf an eigener Serverinfrastruktur reduziert.

Indem Datenschutz und Leistungsfähigkeit auf diese Weise kombiniert werden, können Organisationen das Potenzial moderner KI-Technologien nutzen, ohne Kompromisse bei der Sicherheit einzugehen. Für öffentliche Unternehmen und datensensible Bereiche ist dies eine ideale Lösung, um maßgeschneiderte Anwendungen effizient und regelkonform umzusetzen.

Barrierefreie Mobilität: Chancen durch unser Sprachmodell

Barrierefreie Mobilität

Unser speziell entwickeltes Sprachmodell für den ÖPNV bietet großes Potenzial, um die Mobilität aller Fahrgäste zu verbessern – insbesondere für Menschen mit besonderen Anforderungen. Dank unserer langjährigen Erfahrung sowohl im Umgang mit relevanten Schnittstellen als auch in der Sprachverarbeitung können zentrale Funktionen wie Haltestellenerkennung, Routing, Tarifberechnung und Barrierefreiheit gezielt adressiert und schrittweise ausgebaut werden.

Ein wichtiger Aspekt ist die Möglichkeit, die Nutzung des öffentlichen Nahverkehrs für blinde und sehbeeinträchtigte Personen zu erleichtern. Sprachgestützte Interaktionen können präzise Informationen über Haltestellen, barrierefreie Zugänge oder alternative Routen bereitstellen. Perspektivisch lässt sich das Modell so weiterentwickeln, dass es z. B. Anweisungen zu taktilen Leitsystemen oder Umstiegshilfen optimal vermittelt.

Auch für Fahrgäste mit eingeschränkter Mobilität, wie Rollstuhlfahrende oder Menschen mit Gehbehinderungen, eröffnet unser Modell neue Chancen. Es kann darauf ausgerichtet werden, Informationen über rollstuhlgerechte Haltestellen, Aufzüge oder Rampen zu integrieren, um barrierefreie Fahrten effizient zu planen.

Unsere Stärke liegt dabei in der Anpassungsfähigkeit: Das Modell kann spezifisch auf die lokalen Besonderheiten des jeweiligen Verkehrsunternehmens trainiert werden. Dazu gehören regionale Tarifstrukturen, spezielle Bezeichnungen (Synonyme, POIs) und individuelle Anforderungen.

Darüber hinaus ermöglicht die Integration externer Schnittstellen den Zugriff auf dynamische Informationen wie Verspätungen oder Streckenänderungen in Echtzeit – ein wichtiger Schritt, um barrierefreie Optionen zukünftig gezielt zu unterstützen.

Mit diesem Ansatz schaffen wir die Grundlage, den ÖPNV für alle Fahrgäste zugänglicher zu gestalten. Die Chancen, Barrierefreiheit in sprachgestützte Systeme zu integrieren, sind enorm – und wir sind bereit, diese Möglichkeiten gemeinsam mit euch umzusetzen.

Du willst mehr wissen?

Wenn ihr maßgeschneiderte, datenschutzkonforme KI-Lösungen sucht, die auf die spezifischen Anforderungen im Mobilitätssektor abgestimmt sind, sind wir der richtige Ansprechpartner! Lasst uns gemeinsam die Zukunft der Mobilität gestalten – kontaktiert uns noch heute und profitiert von unserer innovativen und datenschutzkonformen Technologie!

Kurz zusammengefasst

What is Webflow and why is it the best website builder?

Vitae congue eu consequat ac felis placerat vestibulum lectus mauris ultrices. Cursus sit amet dictum sit amet justo donec enim diam porttitor lacus luctus accumsan tortor posuere.

What is your favorite template from BRIX Templates?

Vitae congue eu consequat ac felis placerat vestibulum lectus mauris ultrices. Cursus sit amet dictum sit amet justo donec enim diam porttitor lacus luctus accumsan tortor posuere.

How do you clone a template from the Showcase?

Vitae congue eu consequat ac felis placerat vestibulum lectus mauris ultrices. Cursus sit amet dictum sit amet justo donec enim diam porttitor lacus luctus accumsan tortor posuere.

Why is BRIX Templates the best Webflow agency?

Vitae congue eu consequat ac felis placerat vestibulum lectus mauris ultrices. Cursus sit amet dictum sit amet justo donec enim diam porttitor lacus luctus accumsan tortor posuere.

When was Webflow officially launched?

Vitae congue eu consequat ac felis placerat vestibulum lectus mauris ultrices. Cursus sit amet dictum sit amet justo donec enim diam porttitor lacus luctus accumsan tortor posuere.

How do you integrate Jetboost with Webflow?

Vitae congue eu consequat ac felis placerat vestibulum lectus mauris ultrices. Cursus sit amet dictum sit amet justo donec enim diam porttitor lacus luctus accumsan tortor posuere.

What is Webflow and why is it the best website builder?

Vitae congue eu consequat ac felis placerat vestibulum lectus mauris ultrices. Cursus sit amet dictum sit amet justo donec enim diam porttitor lacus luctus accumsan tortor posuere.

What is your favorite template from BRIX Templates?

Vitae congue eu consequat ac felis placerat vestibulum lectus mauris ultrices. Cursus sit amet dictum sit amet justo donec enim diam porttitor lacus luctus accumsan tortor posuere.

How do you clone a template from the Showcase?

Vitae congue eu consequat ac felis placerat vestibulum lectus mauris ultrices. Cursus sit amet dictum sit amet justo donec enim diam porttitor lacus luctus accumsan tortor posuere.

Why is BRIX Templates the best Webflow agency?

Vitae congue eu consequat ac felis placerat vestibulum lectus mauris ultrices. Cursus sit amet dictum sit amet justo donec enim diam porttitor lacus luctus accumsan tortor posuere.

When was Webflow officially launched?

Vitae congue eu consequat ac felis placerat vestibulum lectus mauris ultrices. Cursus sit amet dictum sit amet justo donec enim diam porttitor lacus luctus accumsan tortor posuere.

How do you integrate Jetboost with Webflow?

Vitae congue eu consequat ac felis placerat vestibulum lectus mauris ultrices. Cursus sit amet dictum sit amet justo donec enim diam porttitor lacus luctus accumsan tortor posuere.

Entdecken
Zurück zur Stories-Übersicht
Startet euer Projekt mit uns!
Wir freuen uns auf euch!
Bild vom Geschäftsführenden Gesellschafter Henrik Johannsen
Deine Ansprechperson
Henrik Johannsen
Kontakt
Teaser Bild der Story oder des Projektes
Den digitalen Alltag vereinfachen
Den digitalen Alltag vereinfachen
Den digitalen Alltag vereinfachen
Den digitalen Alltag vereinfachen
Digitale KI Assistenten

Wie wir digitale Assistenten entwickeln, die diesen Anspruch gerecht werden können, verraten wir dir hieri:

EntdeckenEntdecken
Entdecken
Das Logo vom KI-Netzwerk Hannover kurz Ki.Wi
Das Logo vom KI-Netzwerk Hannover kurz Ki.Wi
Teaser Bild der Story oder des Projektes
Das Logo vom KI-Netzwerk Hannover kurz Ki.Wi
Partner im KI-Netzwerk Hannover
Partner im KI-Netzwerk Hannover
Partner im KI-Netzwerk Hannover
Partner im KI-Netzwerk Hannover
Digitale KI Assistenten

Wir freuen uns, bekannt zu geben, dass wir offiziell Partner im KI-Netzwerk der Wirtschafts- und Beschäftigungsförderung Region Hannover sind.

EntdeckenEntdecken
Entdecken

Kontakt

Wir freuen uns auf euch!

Bild vom Geschäftsführenden Gesellschafter Henrik Johannsen
Deine Ansprechperson
Henrik Johannsen
PROJEKTIONISTEN® GmbH
Schaufelder Straße 11
30167 Hannover
Vielen Dank für deine Nachricht! Wir werden uns so schnell wie möglich bei dir melden.
Ihre Nachricht konnte nicht gesendet werden. Schreibe uns bitte per Mail (info@projektionisten.de).