Industrie

ChatGPT in der Industrie: Gamechanger oder grundloser Hype?

Der explosionsartige Erfolg von ChatGPT wirft auch in der Industrie die Frage auf: Welche Vorteile bietet generative KI für mein Business? Zudem fürchten viele Unternehmen hohe Kosten, mangelnden Datenschutz und keinen konkreten Nutzen. Wir zeigen Ihnen spannende und lohnende Anwendungsfälle sowie Antworten auf diese zentralen Fragestellungen. 

particle and wire frame network
8 Minuten Lesezeit
Mit Insights von...

Der Einsatz von Künstlicher Intelligenz (KI) hat in allen Branchen Einzug gehalten – die Industrie ist hier keine Ausnahme. In den letzten Monaten haben Anwendungen der generativen AI, insbesondere die Einführung des Sprachmodells ChatGPT, einen beispiellosen Hype ausgelöst. Diese Technologien haben außergewöhnlich vielfältige Anwendungsgebiete und damit das Potenzial, die Industrie zu revolutionieren. Welche Bedeutung haben diese Technologien für Ihr Unternehmen? Wir skizzieren hier vielversprechende Anwendungsfälle und zeigen Nutzen im operativen Geschäft, wie z. B. Effizienzsteigerung oder Kostenoptimierung, aber auch Herausforderungen, wie z. B. Datenschutz.

Im Zühlke-Blogpost „ChatGPT: Generieren Sie Umsatz statt nur Text!“ haben wir grundlegend dargestellt, was große Sprachmodelle wie ChatGPT im Allgemeinen sind und wie die Technologie funktioniert. Zudem haben wir erste Einsatzmöglichkeiten erörtert und gezeigt, dass solche Large Language Models (LLM) eine breite Palette von Anwendungsmöglichkeiten in Unternehmen bieten, von der Verbesserung des Kundendienstes über die Automatisierung von Routineaufgaben bis hin zur Erstellung von Inhalten. 

Der Einsatz von generativer KI kann so zu erheblichen Kosteneinsparungen und Effizienzsteigerungen für Unternehmen führen, bringt aber auch Herausforderungen mit sich. So muss z. B. die ethische Nutzung der Technologie ebenso sichergestellt sein wie die Kontrolle von Korrektheit und Angemessenheit des generierten Textes.  

Auf dieser Basis werden wir nun tiefer eintauchen und konkrete Use Cases, Vorteile, Herausforderungen und technologische Fragestellungen generativer KI-Modelle bzw. großer Sprachmodelle für die Industrie beleuchten. Dabei lassen sich ganz grundsätzlich drei Einsatzgebiete von Large Language Models (LLM) wie ChatGPT unterscheiden:  

  • Ask your document: Große Mengen von Daten in Form von Dokumenten und Inhalten durchsuchen und auch komplexe Fragestellungen in natürlicher Sprache zu beantworten 

  • Generierung von Text: Inhalte wie Texte oder auch Programmiercode generieren. 

  • Dialog: Nutzung als User Interface in der internen und externen Kommunikation 

Wissensdatenbank für effizientere Prozesse und engere Kundenbindung

Insbesondere „Ask your document“ bietet breite Anwendungsmöglichkeiten in der Industrie. So können sowohl interne als auch externe Prozesse beschleunigt und vereinfacht werden. Ein Large Language Model könnte auf einen Fehlerbericht einer Maschine oder auf eine frei formulierte Frage eines Mitarbeitenden aus einer Datenbank die korrekte Fehlerbehebung inklusiver passender Ersatzteile und Beschreibung der einzelnen Arbeitsschritte liefern.  

Neben Fehlermeldungen ist dieses Beispiel auch auf Materialzusammensetzungen für die Prozessfertigung, Gefahrenhinweise für den Transport, Anleitungen für Montageprozesse, Technische Zeichnungen, Ersatzteil-Identifikation, Zertifikate für Material oder Produkte, Herkunftsbescheinigungen, Sustainability-Nachweise und viele mehr übertragbar.  

Und auch extern kann „Ask your document“ Unternehmensprozesse unterstützen, insbesondere im Bereich Self-Service. Gerade in Zeiten, in denen zunehmend Servicetechniker fehlen, kann ein Large Language Model auf Basis einer intelligenten Knowledge-Datenbank Antworten auf Kundenfragen und -probleme liefern und diesen bei der Behebung unterstützen, z. B. für Bedienungsanleitungen, Fehlermeldungen und -behebungen, Inbetriebnahmen etc. 

Automatisierte Programmierung durch KI-generierten Code

Im Blogpost „ChatGPT: Generieren Sie Umsatz statt nur Text!“ haben wir gezeigt, dass ChatGPT z.B. für die Generierung von Service- oder Marketingtexten genutzt werden kann. Einen weitaus größeren Impact auf die Industrie hat sicherlich der spannende Use Case „Generierung von Code“, z. B. für die automatische Programmierung von Maschinensteuerungen. Hier gibt es bereits erste Ideen und Ansätze, Steuerungsanlagen für Maschinen oder Anlagen mithilfe großer Sprachmodelle automatisch zu programmieren. Mitarbeitende müssten der Maschine dann lediglich sagen, was sie tun sollen und die KI generiert eigenständig die entsprechenden Codes.  

Die Möglichkeiten gehen aber noch weiter: Large Language Models könnten verwendet werden, um Code für automatisierte Tests zu generieren. Auch hier würde dann eine Beschreibung des zu erzeugenden Tests ausreichen, um ausführbaren Code zu erzeugen. Diese Ansätze sind zwar durchaus spannend und vielversprechend, sie befinden sich aber noch in der explorativen Phase und werfen u. a. große ethische Fragen bzgl. der Nutzung von KI-generiertem Code auf. Gemeinsam mit Kunden erarbeiten wir von Zühlke gerade entsprechende Leitlinien zur Nutzung dieses Codes.  

Large Language Models als Single-Point-of-Contact für Mitarbeitende

Ein weiterer spannender Use Case, der auch im industriellen Umfeld für deutliche Effizienz- und Effektivitätssteigerungen sorgen könnte, eröffnet sich im Bereich Systemdialog. So ist es denkbar, Large Language Models wie ChatGPT als alleiniges Interaktionssystem im Unternehmen einzusetzen. Mitarbeitende müssten sich nicht mehr in verschiedene Systeme, wie z. B. ERP-, WMS- oder MES- Systeme, einarbeiten. Für den Nutzenden wäre es unerheblich, in welchem System er arbeitet oder welches System er gerade nutzt. Durch Eingabe von Fragen oder Befehlen würde er das System im Dialog befragen und Daten eingeben. Mit Hilfe von definierten Zugangsrechten, die über Logins verwaltbar sind, können Dateneingaben und Antworten des Systems nur entsprechend der Zugriffsrechte generiert werden. 

Eine derartige Interaktion kann auch Mitarbeitende im Workflow-Management unterstützen und macht den Einsatz von Personal flexibler. So könnten bei kurzfristigen, z. B. krankheitsbedingten Ausfällen, auch Mitarbeitende aus anderen Bereichen einspringen, wenn sie das System bei bestimmten Tätigkeiten, z. B. in der Intralogistik oder im Service, iterativ unterstützt. Gleiches gilt für neue Mitarbeitende oder Aushilfskräfte, die mit Systemunterstützung schneller eingelernt und damit schneller produktiv eingesetzt werden können. 

Effizientes Knowledge-Management, kostenoptimierte Prozesse und engere Kundenbindung

Die beschriebenen Anwendungsfälle zeigen ein klares Bild: Auch die Industrie kann von generativer KI profitieren. Anwendungsfälle im Bereich „Ask your document“ und „Dialog“ ermöglichen bei der Durchsuchung der eigenen Daten nicht nur eine effizientere Suche, sondern schaffen de facto ein bisher nichtexistierendes Knowledge-Management. Anfragen können in natürlicher Sprache erfolgen, es gibt weniger Abhängigkeiten von Keywords, die Modelle liefern kontextabhängige Ergebnisse und erlauben ein iteratives Abfragen der Daten via "Chat".  

Large Language Modelle sorgen nicht nur für steigende Effizienz und sinkende Kosten bei internen und externen Prozessen. Sie bieten auch Unterstützung bei der Bewältigung des demographischen Wandels und des Fachkräftemangels, z. B. durch die Entlastung von Service-Mitarbeitenden. Und Unternehmen profitieren nicht zuletzt von steigender Kundenbindung und Kundenzufriedenheit aufgrund schneller und präziser Informationsbereitstellung im (Self-)Service. Und mit bereits vorhandenen oder noch auszureifenden Ansätzen im Bereich Codegenerierung lassen sich Prozesse beschleunigen, vereinfachen und automatisieren. Was ebenfalls in steigender Effizienz und Kosteneinsparung mündet. 

Datenschutz, Kosten und Qualität – Herausforderungen der Nutzung von generativer KI

Allerdings bringt die Nutzung von Large Language Models wie ChatGPT auch Herausforderungen mit sich. Wir haben nachfolgend die wichtigsten Fragestellungen beleuchtet und bewertet. 

Ein zentraler Punkt ist sicherlich das Thema Datenschutz. In der Regel sind die Quellen und Dokumente von Unternehmen entweder sehr spezifisch, wie z. B. Serviceanleitungen für Produkte, oder sogar vertraulich, wie z. B. Prozess- oder Funktionsbeschreibungen. Diese Daten und Texte dürfen nicht allgemein zugänglich über ChatGPT sein. Müssen Unternehmen also ihr eigenes KI-Modell aufbauen? 

Ein eigenes KI-Model kann grundsätzlich entwickelt werden, allerdings ist das zum momentanen Zeitpunkt in den allermeisten Fällen nicht wirtschaftlich, daher nicht sinnvoll und auch nicht nötig. Die angesprochenen Anwendungsfälle können jedoch gut durch ein eigenes System abgedeckt werden, das die bereits angesprochenen KI-Modelle von OpenAI und Microsoft augmentiert. Dadurch können die beeindruckenden Fähigkeiten dieser Modelle verwendet werden, ohne die sensiblen Informationen öffentlich zugänglich zu machen. 

Denn unternehmensinterne Daten können zur Verbesserung bzw. zur Erweiterung des bestehenden Large Language Models indiziert und mit der Fragestellung in das KI-Model eingespeist werden. Mittels einer klassischen Zugriffskontrolle können sensible Daten und Dokumente nur von berechtigten Unternehmen bzw. Mitarbeitenden durchsucht werden. Der Datenschutz ist also bei technischen und prozessbezogenen Daten gewährleistet. Und auch bei personenbezogenen Daten haben wir gute Erfahrungen gemacht, da hier dieselben Standards wie bei der Cloud-Speicherung zum Tragen kommen. So findet die Verarbeitung von Microsofts ChatGPT Version bei Azure Cognitive Services in den Niederlanden und damit innerhalb der EU statt. Bis jetzt arbeiten alle Modelle in der Cloud. Der rapide Fortschritt im Open Source Bereich macht on-Premise-Lösungen in den kommenden Jahren aber durchaus realistisch. 

Für das Einlesen von eigenen Dokumenten und damit den Aufbau einer unternehmenseigenen Wissensdatenbank fallen Kosten an, diese sind aber um ein Vielfaches geringer als die Kosten für den Aufbau eines eigenen Modells. Large Language Models werden nach einem Nutzenmodel abgerechnet, im Falle von ChatGPT betragen die Kosten 0,0018 € pro 1.000 Wörter. Der Aufbau der Wissensdatenbank ist somit ein initialer Einmalkostenpunkt. Hinzu kommen Kosten für kontinuierliches Updaten der Wissensdatenbank und Laufzeitkosten, diese sind jedoch nicht die Hauptkostentreiber. 

Eine letzte Frage, die sich Unternehmen oft stellen, ist die Frage nach der Korrektheit und der Qualität der Antworten. Wie bei menschlichen Mitarbeitenden auch kann nicht zu 100 % garantiert werden, dass die gelieferten Antworten korrekt sind. Allerdings lässt sich Korrektheit von gefundenen Informationen durch die Bereitstellung der gefundenen Quellen leicht überprüfen. Dabei ist es, wie bei der Einführung jeder neuen Technologie, absolut notwendig, die zugrundeliegenden Prozesse anzupassen. 

Generative KI: Hype ignorieren, Mehrwert generieren

Zweifellos hat ChatGPT einen enormen, nicht immer zu 100 Prozent berechtigten, Hype um die Potenziale großer Sprachmodelle ausgelöst. Fest steht aber auch: Unternehmen, die die Möglichkeiten optimal für ihr Business nutzen, profitieren von steigender Effizienz und Effektivität, sparen Zeit und Kosten und können neue Einnahmequellen generieren. Dazu müssen nicht immer neue, generative Anwendungsfälle kreiert werden, auch bestehende Anwendungsfälle sollten verbessert werden. Große Sprachmodelle werden auch industrielle Prozesse nachhaltig verändern. Damit die Modelle wirklich zum Gamechanger für die Industrie werden, müssen sich Unternehmen jetzt mit der Technologie und ihren Möglichkeiten befassen.  

Wir arbeiten täglich an neuen Ideen und Anwendungsfällen, um unsere Kunden mit neuen Technologien zu unterstützen. Sie haben weiterführende Ideen für konkrete Use Cases oder haben Fragen zum Einsatz von KI in Ihrem Unternehmen? Sprechen Sie uns gerne an! 

Philipp Morf
Ansprechpartner für die Schweiz

Philipp Morf

Head AI & Data Practice

Dr. Philipp Morf ist promovierter Ingenieur ETH und leitet seit 2015 Bereich Artificial Intelligence (AI) und Machine Learning (ML) Lösungen bei Zühlke. Als Director des AI Solutions Centers konzipiert er effektive AI/ML Anwendungen und ist ein gefragter Redner zu AI-Themen im Bereich Anwendungen und Anwendungstrends. Mit seiner langjährigen Erfahrung als Berater im Bereich Innovationsmanagement schlägt er die Brücke zwischen Business, Technologie und den Menschen als Anwender von AI.

Kontakt
Vielen Dank für Ihre Nachricht.
Dan Klein Zuhlke
Ansprechpartner für Großbritannien

Dan Klein

Global Chief of Data & AI

Dan Klein ist Zühlke's Chief of AI & Data. Er verfügt über umfangreiche Erfahrungen in verschiedenen Branchen. Als erfahrener Ingenieur und strategischer Berater verknüpft Dan Klein erfolgreich die Bedürfnisse des Business Leadership mit der technischen Expertise von Fachteams. Er schafft es so, erfolgreich datengetriebene Transformationsprojeke für Unternehmen umzusetzen.

Kontakt
Vielen Dank für Ihre Nachricht.
Philipp Morf
Ansprechpartner für Deutschland

Philipp Morf

Head AI & Data Practice

Dr. Philipp Morf ist promovierter Ingenieur ETH und leitet seit 2015 Bereich Artificial Intelligence (AI) und Machine Learning (ML) Lösungen bei Zühlke. Als Director des AI Solutions Centers konzipiert er effektive AI/ML Anwendungen und ist ein gefragter Redner zu AI-Themen im Bereich Anwendungen und Anwendungstrends. Mit seiner langjährigen Erfahrung als Berater im Bereich Innovationsmanagement schlägt er die Brücke zwischen Business, Technologie und den Menschen als Anwender von AI.

Kontakt
Vielen Dank für Ihre Nachricht.
Barbara Hotwagner
Ansprechpartner für Österreich

Barbara Hotwagner

Managing Director Technology

Barbara Hotwagner steht für Nachhaltigkeit und Diversität – diese Themen sind ihr besonders wichtig. Als Managing Director Technologies und in der Geschäftsführung ist sie für die strategische Ausrichtung von Zühlke Österreich verantwortlich. Dabei koordiniert sie vor allem die Teams, die für die Projektumsetzungen verantwortlich sind. Davor war sie lange bei anderen IT-Firmen in unterschiedlichen Rollen tätig und verfügt über 20 Jahre fundiertes Wissen in dieser Branche.

Kontakt
Vielen Dank für Ihre Nachricht.
Steve Nunez
Ansprechpartner für Singapur

Steve Nunez

Steve Nunez ist Head of Data & Artificial Intelligence bei Zühlke Asia. Er begann seine Karri-ere beim NASA Artificial Intelligence Laboratory des Kennedy Space Centre und hat über 25 Jahre Erfahrung in der Leitung von KI- und Data-Science-Teams. In seiner Funktion berät er Führungskräfte hinsichtlich der praktischen Anwendung von künstlicher Intelligenz im Zu-sammenhang mit der Geschäfts- und KI-Strategie sowie der Transformation zum datengetriebenen Unternehmen.


Vor seiner Zeit bei Zühlke leitete Steve das Professional-Services-Team und das technische Pre-Sales-Team eines großen Datenanbieters, der intelligente Lösungen für die Finanz- und Versicherungsbranche sowie den öffentlichen Sektor bereitstellt.
 

Vielen Dank für Ihre Nachricht.