Alexander Kagan | Oktober 22, 2024

Generative KI im Einsatz

Die Revolution der Künstlichen Intelligenz (KI) verändert jede Branche, und die Beratungsindustrie ist keine Ausnahme. Large Language Models (LLMs) wie ChatGPT, Gemini und Claude eröffnen neue Möglichkeiten durch ihre beeindruckenden Fähigkeiten: sie erkennen schnell und präzise die wesentlichen Punkte eines Kundenanliegens, generieren individualisierte Antworten und wandeln Schlagwörter in fehlerfreie Texte um. Diese Technologien steigern die Effizienz und Präzision in der Kommunikation und unterstützen kreative Prozesse. In diesem Artikel erfahren Sie, wie LLMs funktionieren und wo sie daher effektiv eingesetzt werden können, um nicht nur Kosteneinsparungen zu erzielen, sondern auch die Zufriedenheit und Bindung der Kunden sowie die Befähigung der Mitarbeiter zu erhöhen.

 

Die Kernkompetenzen von generativer KI

Das erfolgreiche ChatGPT-4 wurde mit einem umfangreichen Pool von Trainingsdaten trainiert, der aus über 13 Billionen Token besteht. Token sind die Recheneinheit der Sprachmodelle und beziehen sich auf Wortteile, wie beispielsweise Silben und Wortstämme. Dies ermöglicht es dem Modell, eine Art Weltwissen zu erlangen und es als eine Wissensdatenbank zu nutzen, die es befähigt, in menschenähnlicher Sprache zu kommunizieren. Die Fortschritte in diesem Bereich sind beeindruckend, wenn man bedenkt, dass nur ein Jahr zuvor ChatGPT-3 lediglich mit über 300 Milliarden Token trainiert wurde, was einem Wachstum um den Faktor 43 entspricht.

Trainingsumfang ist aber nicht gleich Wissen. Das Wissen in diesen Modellen ist in einem neuronalen Netz parametrisiert und resultiert in Fall von ChatGPT-3.5 in über 175 Milliarden Parametern, die während des Trainings entstanden sind. Diese Parameter sind in einem hochdimensionalen Raum relational zueinander angeordnet und ermöglichen es dem Modell auf diese Weise, die Beziehungen zwischen Wortteilen zu verstehen. Gegenteilig-konnotierte Begriffe befinden sich beispielsweise auf gegenüberliegenden Seiten des Raumes, während Synonyme sich eher nebeneinander wiederfinden, sofern genügend Beispiele in den Trainingsdaten vorhanden sind. Die Größe der Modelle spielt daher eine entscheidende Rolle für die spätere Performance in der Praxis. Die initiale Mission der KI liegt darin, den nächsten Token in einem Satz richtig vorherzusagen, um einen grammatisch und semantisch korrekten Satz zu generieren. Das bringt eine statistische Komponente mit sich, die es Sprachmodellen erlaubt, neue Sätze zu kreieren, die nicht in ihren Trainingsdaten enthalten sind. In der Anwendung helfen später sogenannte „User-Prompts“ den Sprachmodellen dabei, inhaltlich relevante Sätze zu generieren, indem sie den Modellen spezifische Anweisungen mit Stichwörtern, Beispielen und Kontextinformationen liefern, die als Ausgangspunkt für die Generierung der neuen Sätze dienen.

Die Art und Weise wie generative KIs die Welt um sich herum wahrnehmen, führt zu einer wichtigen Erkenntnis: Sie sind  keine All-Zweck-Verständniswunderwaffe, da sie die Bedeutung hinter den Worten nicht verstehen können. Ihre Stärke liegt im Imitieren der menschlichen Sprache. Außerdem ermöglicht ihr relationales Funktionieren Überlegungen (eng: „reasoning“) anzustellen. Diese Kompetenzen gilt es sinnvoll zu nutzen.

 

Generative KI unterstützt die Mitarbeiter bei ihrer Arbeit

Eine Studie der Harvard Universität untersuchte den Einfluss von Large Language Models (LLMs) auf Produktivität und Qualität der Arbeiten von 758 Beratern der Boston Consulting Group. Die Ergebnisse waren eindeutig: Im Durchschnitt konnten die Berater 12,2% mehr Aufgaben erledigen, die zudem 25,1% schneller abgeschlossen wurden. Darüber hinaus verbesserte sich die Qualität ihrer Arbeit um mehr als 40% im Vergleich zur Kontrollgruppe, und die Fehleranfälligkeit sank um 19%. Diese Befunde unterstreichen das enorme Potenzial, das diese Technologie – trotz ihres relativ jungen Entwicklungsstandes – bereits heute für Unternehmen bietet. Im Folgenden präsentieren wir zwei konkrete Beispiele, die diese Vorteile veranschaulichen.

 

KI-gestütztes Brainstorming

Ein zusätzlicher, mitdenkender Kopf im Team kann neue Perspektiven und Ideen liefern, die andernfalls möglicherweise übersehen worden wären. Außerdem kann dieser einen geeigneten Startpunkt und Richtung liefern und die Anlaufzeit beschleunigen.

Large Language Models können diese Schnittstelle kostengünstig füllen. Ihre statistischen Eigenschaften erlauben es, kreative Ideen auszuarbeiten und logische Verknüpfungen zu erstellen. Aber Vorsicht – diese müssen kritisch auf ihre Richtigkeit geprüft werden. Eine Stärke der Large Language Models im Brainstorming ist ihre abstrahierende Sichtweise auf ihre Daten: Die Antworten entstehen mit einem gewissen Abstand, der dadurch entsteht, dass sie kein tiefergehendes Verständnis von dem haben, was sie da eigentlich produzieren. Die Antworten werden also top-down vom Ganzheitlichen zum Wesentlichen entwickelt und in Form von gruppierten Listen zusammengefasst und dargestellt.

Der Input spielt dabei eine entscheidende Rolle. Das Problem bzw. die Suchvorgabe muss so genau wie möglich und so lange wie nötig beschrieben werden. Zum Beispiel könnte eine Frage wie “Welche Anwendungs-Möglichkeiten gibt es für Machine-Learning-Anwendungen im Bankensektor?” den Rahmen für eine zielgerichtete Diskussion bieten. Diese Initialfrage gibt der KI genug Spielraum, um verschiedene Prozesse und Use-Cases in ihrer Antwort abzudecken und zwingt sie nicht einfach nur faktenbasiertes Wissen wiederzugeben.

Multitasking schränkt die maximale Leistung der KI ein, primär aufgrund der Limitation des Gedächtnisses. ChatGPT-3.5 hat ein Gedächtnis von etwa 16.000 Token (das entspricht etwa einem Text von 12.000 Wörtern), während ChatGPT-4 bereits über ein Gedächtnis von etwa 128.000 Token verfügt (etwa 96.000 Wörter). Dies umfasst sowohl die Länge des Inputs als auch des Outputs. In der Praxis kann diese Einschränkung mithilfe der RAG-Architektur teilweise umgangen werden, die es ermöglicht Wissen in einem zweistufigen Verfahren zu extrahieren, ohne alles im Prompt abtippen zu müssen und dabei die faktische Richtigkeit in den Ergebnissen zu steigern. Aber auch weitere Architekturen, wie z.B. xLSTM, zeigen vielversprechende Weiterentwicklungen für die Zukunft.

Moderne Chatbots haben zudem mittlerweile Zugang zum Internet erhalten, was präzise Recherchen über Kunden, Produkte und Technologien ermöglicht. Obwohl diese Modelle bereits vor einiger Zeit trainiert wurden, können sie dadurch aktuelle Informationen liefern und den Brainstorming-Prozess effektiv unterstützen. Insbesondere langfristig bleibt es spannend, inwieweit die klassische Google-Recherche von generativer KI abgelöst bzw. weiterentwickelt wird.

 

KI-gestützte Kommunikation

Die Fähigkeit von generativen Sprachmodellen, menschliche Sprache zu imitieren und kontextbezogen zu antworten, eröffnet zahlreiche Möglichkeiten für die automatisierte Kommunikation. Diese Technologie kann die Effizienz und Präzision von Kommunikationsprozessen erheblich verbessern, insbesondere durch das Erkennen der wesentlichen Punkte in einem Textabschnitt, die automatische Vervollständigung von Texten und die stets korrekte Anwendung der sprachlichen Syntax.

Generative KI-Systeme sind in der Lage, die wesentlichen Punkte eines Kundenanliegens schnell und präzise zu erkennen. Dies erfolgt durch die Analyse und Identifikation relevanter Schlüsselwörter, Phrasen sowie kontextueller Informationen in den Texten, um die Anliegen korrekt zu verstehen und zu priorisieren. Diese Fähigkeit ermöglicht beispielsweise, schneller auf Kundenanfragen zu reagieren und damit die Zufriedenheit der Kunden zu steigern. Ein Beispiel: Ein Kunde fragt nach den Rückgabebedingungen eines Produkts. Die KI erkennt Schlüsselwörter wie „Rückgabe“, „Bedingungen“ und „Produkt“. Sie kann sofort relevante Informationen aus einer Wissensdatenbank abrufen und dem Kunden in Form einer personalisierten Antwort-E-Mail bereitstellen.

Die Formulierung einer solchen E-Mail ist ein Heimspiel für die generative KI. Ihre Fähigkeit passgenaue Antworten zu generieren ist besonders nützlich in Szenarien, in denen standardisierte Antworten erforderlich sind, wie zum Beispiel in Kundenservice-Anfragen. Die KI kann auf vordefinierte Antwortbausteine zurückgreifen um korrekte Informationen herauszufiltern und diese je nach Kontext und Stimmung des Absenders in der originalen E-Mail anpassen. Dadurch wird sichergestellt, dass die Antworten nicht nur korrekt, sondern auch konsistent und formell sind. Dies reduziert die Arbeitsbelastung für die Mitarbeiter und stellt sicher, dass Kunden schnell die benötigten Informationen in angemessener Form erhalten. Und das Beste daran ist: Die automatisierte Kommunikation durch generative KI ermöglicht eine 24/7-Verfügbarkeit, was besonders in global agierenden Unternehmen von Bedeutung ist.

Darüber hinaus können generative KI-Systeme Zusammenfassungen von Texten erstellen oder in vorgegebene Kategorien einteilen und anschließend konkrete Handlungsempfehlungen formulieren. Insbesondere bei Klassifizierungsaufgaben gilt es allerdings zu beachten, dass bestimmte Buzzwords wie „Gender Equality“ (Gleichberechtigung) oder „Sustainability“ (Nachhaltigkeit) die Kontextwahrnehmung und Urteilsfähigkeit der Sprachmodelle beeinflussen und zu verzerrten Ergebnissen und Priorisierungen führen können. Das liegt daran, dass diese Buzzwords meist nur in bestimmten Kontexten in den Trainingsdaten der Sprachmodelle vorkommen und daher das Erscheinen eines dieser Wörter das Verständnis des Textes sofort in eine bestimmte Richtung lenken kann.

Generative KI kann nicht nur Antworten vorgeben, sondern auch Schlagwörter und Stichpunkte in vollständige, formelle Texte umwandeln. Dies ist besonders wertvoll für die Erstellung von E-Mails, Berichten oder anderen Dokumenten. Die KI kann aus kurzen, stichpunktartigen Eingaben vollständige Sätze und Absätze generieren, die frei von Tippfehlern und grammatikalischen Fehlern sind. Ein praktisches Beispiel ist die automatische E-Mail-Generierung: Ein Mitarbeiter gibt nur die wichtigsten Punkte ein, die im E-Mail-Text enthalten sein sollen. Die KI wandelt diese Informationen in einen gut strukturierten, professionellen Text um, der direkt versendet werden kann.

 

Zukunft von generativer KI

Die Landschaft der Sprachmodelle und der generativen KI entwickelt sich rasant weiter. Durch kontinuierliches Training und Lernen werden ihre Fähigkeiten immer besser, was zu präzisen und relevanten Antworten führt. Es ist zu erwarten, dass auch bestehende Schwächen, wie das Halluzinieren oder Verständnislücken, durch die Integration weiterer KI-Elemente und Bausteine (englisch: „Augmented Generative AI“ oder „AGI“) oder innovativer KI-Architekturen abseits von klassischen Transformer-Modellen (z.B. xLSTM) zunehmend behoben werden.

Ein Beispiel dafür ist die nahtlose Verbindung von ChatGPT mit der Bildgenerierungs-KI DALL-E, die über Textbefehle aktiviert werden kann, um neue Bilder zu erstellen. Ebenso können mathematische Aufgaben durch spezialisierte KIs gelöst werden, wodurch das Large Language Model in Mathematikaufgaben brilliert. Diese Entwicklungen zeigen, dass die Zukunft der generativen KI in der Vernetzung und Spezialisierung liegt, was ihre Anwendungsbereiche weiter erweitern und ihre Leistungsfähigkeit steigern wird.

Die Technologie der Large Language Models trägt bereits heute dazu bei, das Verfassen von Texten, das Programmieren von Codes und das Beantworten von Multiple-Choice-Fragen effizienter zu gestalten.

Mit der Veröffentlichung von ChatGPT-4o hat OpenAI am 13.05.2024 das bisher größte Omni-Modell präsentiert, das Eingaben in jeder Form – ob Text, Ton oder Bild – verarbeiten kann. In technischer Hinsicht vereint dieses Modell die zuvor getrennten Bereiche Textverarbeitung, Transkription und Bilderkennung in einer einzigen Architektur, um Reaktionszeiten erheblich zu verkürzen. Dies ermöglicht Konversationen mit menschlicher Geschwindigkeit, erkennbar an Pausen von durchschnittlich nur 320 Millisekunden, und macht nahtlose Live-Übersetzungen möglich. Der Fokus liegt auf einer gesteigerten Benutzerfreundlichkeit: Die KI reagiert nun ausdrucksvoller und ermöglicht eine natürlichere Interaktion, weit über das hinaus, was bisherige Chatbot-Oberflächen bieten. Ein neues, benutzerfreundliches App-Design sowie eine Halbierung der Betriebskosten im Vergleich zu ChatGPT-4-Turbo könnten dazu führen, dass sich Technologien wie ChatGPT-4o bald als das neue Alexa, Siri und Co. auf unseren Endgeräten etablieren.

Zudem bleibt es faszinierend zu beobachten, wie sich die Künstliche Intelligenz stetig in den Bereichen Verständnis, Gedächtnisleistung und Wissensakkumulation verbessert. Um in dieser schnelllebigen Ära nicht ins Hintertreffen zu geraten, ist es für Unternehmen essenziell, die Technologie der Large Language Models bereits heute proaktiv zu erforschen, mit ihr zu experimentieren und strategische Einsatzmöglichkeiten zu identifizieren und zu testen. Denn schon heute können Unternehmen durch den gezielten Einsatz von Large Language Models erhebliche Zeit- und Ressourceneinsparungen realisieren.

Weitere Artikel zum Thema

Walter Maderner | September 24, 2024

Market Intelligence: Wie entwickelt sich Ihr Markt?

Wer am Anfang der Wertschöpfungskette steht, hat vom Endmarkt oft nur eine vage Ahnung. Dabei entscheidet sich auch der Geschäftserfolg von Industrieunternehmen am Nachfrageverhalten für Endprodukte. Um Marktgröße und -dynamik zuverlässig bestimmen zu können, reicht das Wissen über die eigenen Direktkunden meist nicht aus. Besonders in mehrgliedrigen Wertschöpfungsketten braucht es dafür spezifische Marktinformationssysteme.

Weiterlesen >
Philip Wolfsteiner | August 27, 2024

Geschäftsmodellinnovation in der Praxis: Differenzierung durch Service

Als reiner Produktanbieter ist man selten allein am Markt. Denn um gefragte Features herrscht meist reger Wettbewerb. Gerade im Industriebereich sind Produkteigenschaften als Alleinstellungsmerkmale deshalb oft nicht nachhaltig. Das stellte auch einer unserer Klienten im Infrastrukturmanagement fest, als er mit dieser Projektanfrage auf uns zukam: Um die eigene Wettbewerbsposition abzusichern, sollte das Servicegeschäft rund um […]

Weiterlesen >
Andreas Frischherz | August 13, 2024

Wie Management-Systeme den Vertriebserfolg sabotieren

Jeden Tag treffen Sie und Ihre Kolleg:innen unzählige kleine und große Entscheidungen, die in Summe den Vertriebserfolg ausmachen. Diese Entscheidungen unterliegen einer Vielzahl an Einflüssen – von der Qualität der Informationsgrundlage über klare Zielvorgaben und Incentivierungen bis hin zu kulturellen Faktoren. Aus unserer Beratungspraxis wissen wir, dass Management-Systeme dem Vertriebserfolg oft im Weg stehen können. […]

Weiterlesen >