Spätestens mit ChatGPT ist generative KI (künstliche Intelligenz) in aller Munde und hält Einzug in immer mehr Prozesse und Arbeitsabläufe unterschiedlichster Bereiche und Branchen. Der Begriff „Generative KI“ bezeichnet eine Technologie, die in der Lage ist, auf der Basis vorhandener Informationen und Vorgaben eines Anwenders neue Inhalte zu generieren. Mit der Verfügbarkeit von trainierten generativen KI-Modellen und Large Language Models (LLM) für die Allgemeinheit werden die damit verbundenen Potenziale zunehmend sichtbar.
Optimieren Sie Ihre Anwendungen und Prozesse mit dem Potenzial der künstlichen Intelligenz
Gesteigerte Produktivität und Innovationskraft, höhere Effektivität, optimierte Ergebnisqualität, bessere Entscheidungen und reduzierte Kosten sind nur einige Vorteile, die der Einsatz von KI mit sich bringt. Für Unternehmen ist insbesondere die Frage interessant, wie sich diese disruptive Technologie in die eigenen Prozesse und die dazugehörigen SAP-Systeme und Softwarelandschaften integrieren lässt. Wir geben einen Überblick über mögliche Anwendungsfelder und -fälle.
Was ist generative KI und LLM?
Eine Technologie, die in der Vergangenheit nur Forschern, IT-Entwicklern und Mathematikern zugänglich war, lässt sich nun über eine einzige Suchzeile nutzen. Die Ergebnisse machen sprachlos und begeistern. ChatGPT hat einen „Google-Moment“ geschaffen, der das gesamte Ausmaß an Potenzialen und möglichen Anwendungsfällen erahnen lässt, die mit generativer KI einhergehen.
Bei generativer KI handelt es sich um generativ modellierte maschinelle Lernmodelle (Machine Learning Models), die mittels Massendaten darauf trainiert sind, neue Daten zu erzeugen, die dem Trainingsdatensatz möglichst ähnlich, aber nicht mit ihm identisch sind. Es handelt sich um probabilistische und nicht um deterministische Modelle. Das Ziel ist es, möglichst viele Variationen eines Trainingsdatensatzes zu erzeugen, die mit hoher Wahrscheinlichkeit zu diesem Datensatz passen. Deterministische Modelle hingegen erzeugen für bestimmte Rahmenparameter immer die gleichen Ergebnisse auf Basis von manuell zugewiesenen Beschreibungen, Anmerkungen (Labels) oder Tags. Bei Massendaten müssen Labels und Tags mit hohem manuellem Aufwand hinzugefügt werden, sodass Deep-Learning-Ansätze wie neuronale Netze oder Deep Neural Network (DNN) zum Einsatz kommen, um die Trainingsdaten selbstständig in unterschiedliche Dimensionen aufzuteilen und damit zu labeln oder zu taggen.
Die Potenziale von generativer KI
Aktuell wird oft darüber diskutiert, ob generative KI menschliche Arbeitskräfte ersetzen wird. Folglich nehmen viele Arbeitnehmer die Technologie als Bedrohung wahr. Dabei wird der eigentliche Mehrwert von künstlicher Intelligenz ausgeblendet: Durch die Integration von KI in die täglichen Geschäftsprozesse lassen sich repetitive Aufgaben automatisieren, sodass mehr Zeit für kreative, kommunikative und soziale Aufgaben bleibt. Daraus resultiert nicht nur eine unmittelbare Effektivitäts- und Effizienzsteigerung, sondern auch eine erhöhte Innovationskraft. Ebenso sind die sich ergebenden Kosteneinsparungen und Qualitätssteigerungen nicht außer Acht zu lassen, da die KI-Unterstützung zum einen den Arbeitsaufwand verringert und zum anderen Fehlern vorbeugt oder die Fehlererkennung verbessert.
Insbesondere generative KI und Large Language Models spielen hierbei eine entscheidende Rolle, da sie nicht wie bisherige Machine-Learning-Modelle ein bestimmtes Ergebnis zu einer bestimmten Eingabe liefern, sondern eine Vielfalt an unterschiedlichen Ergebnissen und Möglichkeiten. Werden generative KI und LLM mit einer großen Menge an Daten in vielen verschiedenen Kontexten und Dimensionen trainiert, können solche Modelle komplexe Zusammenhänge und Abhängigkeiten erlernen. So sind sie beispielsweise in der Lage, Sprachen grammatikalisch korrekt wiederzugeben oder Lösungsvorschläge zu verschiedenen Fragestellungen zu unterbreiten, die einen Bezug zu den im Trainingssatz beinhalteten Themenfeldern haben. Diese Fähigkeiten haben OpenAI mit ChatGPT und Google mit Bard eindrucksvoll aufgezeigt.
Generative KI in Unternehmensprozessen anwenden
Wie lassen sich solche trainierten und ausgereiften Modelle für die Geschäftsprozesse im eigenen Unternehmen nutzen sowie in (SAP-)Software und Systeme integrieren? Es bestehen vier Optionen für die Integration und den Einsatz von generativer KI und vortrainierten KI-Modellen (eigens trainierte Modelle sind bewusst ausgeschlossen):
-
Bestehende Modelle können mit den bestehenden Fähigkeiten sofort zum Einsatz kommen.
-
Bestehenden Modellen wird Zugriff auf bestimmte, unternehmensinterne Daten gewährt, um ihre Fähigkeiten auf diese Informationen anwenden zu können.
-
Bestehenden Modellen werden Regeln und Abhängigkeiten antrainiert (kleine Datensätze mit hoher Datenqualität), um die bestehenden Fähigkeiten nur in einem definierten Rahmen zu nutzen.
-
Bestehende Modelle werden auf bestimmte Anwendungsfälle spezialisiert (große Datensätze mit moderater Datenqualität), um genaue Ergebnisse für den ausgewählten Anwendungsfall zu liefern.
Die aufgeführten Optionen schließen sich nicht gegenseitig aus, sondern können miteinander in Beziehung gesetzt werden.
Einsatzmöglichkeiten für generative KI
Was die Einsatzmöglichkeiten von generativer KI im Unternehmen angeht, lassen sich sieben übergeordnete, bereichsunabhängige und systemunspezifische Szenarien unterscheiden.
Intuitive/natürliche Sprachschnittstelle (Natural Language Interface)
Ein trainiertes Modell wie ChatGPT kann als „Natural Language Interface“ (natürliche Sprachschnittstelle) innerhalb von Software und Systemen wie SAP S/4HANA dienen und Benutzern ermöglichen, über einfache Konversationen oder per Chat mit dem System zu interagieren. Die Benutzer können dialogorientiert Fragen stellen, Informationen anfordern oder Transaktionen und Operationen durchführen, was die Interaktion mit dem System einfach und intuitiv macht. Ebenso lassen sich die Eingaben gegen vordefinierte Kriterien, Regeln oder Qualitätsvorgaben validieren, was die Korrektheit der Daten sicherstellt und damit die Fehlerrate reduziert.
Automatisierter 1st-Level-Support und Helpdesk-Unterstützung
An das Konzept einer intuitiven Sprachschnittstelle anknüpfend, können generative KI-Modelle als virtueller Assistent oder Chatbot eingesetzt werden, um Support zu leisten und Benutzeranfragen innerhalb von Software und Systemen zu beantworten. Sie können beispielsweise Benutzer dabei unterstützen, Informationen zu finden und Probleme zu beheben, oder sie aktiv durch Prozesse führen, was die Abhängigkeit von herkömmlichen Support-Kanälen verringert und die Benutzererfahrung erheblich verbessert.
Vereinfachte Datenexploration und -analyse
Dieses Szenario unterstützt Benutzer bei der aktiven Analyse von Daten in Software- und Informationssystemen. Anwender können Fragen zu bestimmten Datenpunkten stellen, Datenzusammenfassungen und Visualisierungen anfordern oder Erkenntnisse aus den Daten des Systems und der Software gewinnen. Das hilft dabei, schnell auf relevante Informationen zuzugreifen und datengestützte Entscheidungen zu treffen. Indem ein Echtzeitzugriff auf wichtige Kennzahlen oder Berichtszusammenfassungen gewährt wird, können Nutzer zum Beispiel Fragen zu bestimmten Daten und Geschäftsfeldern stellen, benutzerdefinierte Berichte anfordern oder automatisierte Updates zur Geschäftsleistung erhalten.
Interaktives Training und Onboarding
Für Benutzer, die mit einem System oder einer Software noch nicht vertraut sind, können interaktive Anleitungen und individuelle Unterstützung bereitgestellt werden. Integriert oder als externer Chatbot werden Schritt-für-Schritt-Anleitungen ausgegeben, Benutzerfragen beantwortet oder Kontextinformationen bereitgestellt, um Benutzer dabei zu unterstützen, durch Prozesse zu navigieren und sich schneller im System zurechtzufinden.
Spezialisierte Wissensdatenbank und Dokumentationsspeicher
Ein weiteres Szenario ist der Aufbau einer intuitiv abfragbaren Wissensdatenbank oder von Dokumentations-Repositories innerhalb von Software und Systemen wie SAP S/4HANA. So werden Informationen über Systemfunktionalitäten, Prozessrichtlinien oder Best-Practice-Ansätze auf Anfrage oder proaktiv bei der Verwendung des Systems bereitgestellt. Dabei können Benutzer über einfache Konversationen auch auf relevante Dokumentationen zugreifen, nach bestimmten Themen suchen oder Erklärungen zu Systemfunktionen anfordern. Ebenso lassen sich interaktive und personalisierte Trainingsmodule, Simulationen oder Quiz-Fragen generieren, die Benutzern helfen, Systemfunktionen kennenzulernen.
Dieses Szenario bildet die Grundlage für den zuvor genannten Punkt „Interaktives Training und Onboarding“. Es dient auch als wertvolles Instrument für den Wissenstransfer, um das Know-how von erfahrenen Benutzern oder Experten zu teilen. Ebenso ist die Integration von vorhandenen Wissensdatenbanken wie Atlassian Confluence oder Microsoft SharePoint möglich, um Suchfunktionen zu verbessern, relevante und assoziierte Dokumente einfacher und schneller zu finden sowie Absichten von Nutzern zu erkennen und Kontextsuchen hierzu durchzuführen. Dadurch lässt sich Zeit bei der Suche sparen und die Produktivität von Nutzern steigern.
Personalisierte Empfehlungen
Benutzerpräferenzen, historische (Nutzungs- und Abfrage-)Daten und Systemwissen lassen sich nutzen, um personalisierte Empfehlungen abzugeben und damit proaktiv relevante Berichte anzubieten, Prozessverbesserungen anzuregen oder Erkenntnisse auf der Grundlage benutzerspezifischer Kontexte zu liefern. Das unterstützt die Benutzer dabei, ihre Arbeitsabläufe und die Entscheidungsfindung zu optimieren.
Intelligente Benachrichtigungen und Alarme
Basierend auf vordefinierten Auslösepunkten oder Benutzerpräferenzen, können Benutzer proaktiv über kritische Ereignisse, Systemaktualisierungen oder in Daten erkannte Anomalien vor, während oder nach deren Eintritt informiert werden, um ein schnelles Handeln zu ermöglichen und frühzeitig Gegenmaßnahmen einzuleiten.
Fazit: Integration von generativer KI gelingt schnell und einfach
Mit dem zunehmenden Angebot von proprietären trainierten generativen KI- und LLM-Modellen wie ChatGPT von OpenAI oder Bard von Google ist die Einstiegsbarriere für die Integration von generativer KI in Geschäftsprozesse im eigenen Unternehmen massiv gesunken und die Anzahl der möglichen Anwendungsfälle stark gestiegen. Es bedarf dafür keiner spezialisierten KI-Forscher und -Entwickler mehr, die sich mit der Erstellung von themenspezifischen Machine-Learning-Modellen beschäftigen.
Generative KI-Modelle lassen sich „out of the box“ nutzen und integrieren, was die Komplexität, den Aufwand und die Kosten von KI-Projekten stark reduziert. Auch die Know-how-Anforderungen an die Nutzer sind deutlich geringer, da Anfragen in eigener Sprache und dem eigenen Verständnis nach gestellt werden können und keine feste Abfragesyntax notwendig ist, was den Entwicklungsaufwand für die Abdeckung stark variierender Abfragen reduziert. Dadurch haben insbesondere die Komplexität und der Umfang von KI-Integrationsprojekten abgenommen, sodass sich KI-unterstützte Funktionalitäten schnell und einfach einführen lassen. Das hat auch SAP erkannt und bietet zunehmend KI-unterstützte Funktionsmodule für Lösungen wie SAP S/4HANA oder die SAP Analytics Cloud. Welche Strategie SAP hinsichtlich generativer KI verfolgt und welche SAP-Lösungen bereits über KI-Komponenten verfügen, lesen Sie in einem separaten Blogbeitrag.