Blog

ChatGPT und Large Language Models: der heilige Gral der Unternehmens-KI

18. Oktober 2023

ChatGPT und Large Language Models: der Heilige Gral der Unternehmens-KI?

Mit einer Million Nutzern in fünf Tagen und 100 Millionen Nutzern in zwei Monaten hat ChatGPT historische Rekorde für eine noch nie dagewesene Akzeptanzrate aufgestellt. Zum Vergleich: Instagram hat zweieinhalb Jahre gebraucht, um auf 100 Millionen Nutzern zu kommen, und TikTok neun Monate. Der exponentielle Anstieg von KI-Tools ist eine spannende Chance für Unternehmen, bringt aber auch eine ganze Reihe neuer Herausforderungen mit sich. Laut einer Umfrage unter 12.000 Arbeitnehmern im Januar 2023 hatten 43 % von ihnen bereits Tools wie ChatGPT für arbeitsbezogene Aufgaben genutzt – 70 % von ihnen, ohne es ihrem Chef zu sagen. Wie können Unternehmen und öffentliche Verwaltungen also die Risiken der Integration dieser neuen Art von KI-Tools in ihr Arbeitsumfeld abfedern, ohne die damit verbundenen Chancen zu verpassen?

Das Problem beginnt mit dem Dschungel von Akronymen, der die heutige KI-Landschaft kennzeichnet, und der Schwierigkeit für Laien, die Unterschiede zwischen den verschiedenen Konzepten zu verstehen.

Willkommen im KI-Dschungel: ChatGPT, LLM, BERT, Llama und Co.

Häufig wird zwischen ChatGPT (dem KI-Tool, über das alle reden) und GPT (dem großen Sprachmodell oder LLM, das hinter ChatGPT steht) unterschieden. Auch wenn sie ähnlich klingen mögen, ist es wichtig zu verstehen, dass sie nicht dasselbe sind.

ChatGPT ist eine Art Super-Chatbot, der auf der Grundlage einiger weniger Sätze als Eingabe (=Prompt) Antworten in natürlicher Sprache (=wie ein Mensch) zu fast jedem Thema generieren kann. Er wurde mit einem Large Language Model (LLM) namens GPT (Generative Pre-trained Transformer) trainiert – dem größten Sprachmodell aller Zeiten, entwickelt von OpenAI (mit Unterstützung von Microsoft) mit 175 Milliarden Parametern.

Die große Beliebtheit von ChatGPT erklärt sich durch seine Zugänglichkeit und die Vielzahl der Anwendungsfälle, für die es eingesetzt wird. Von der Arzneimittelforschung bis zur Materialherstellung hat ChatGPT das Potenzial, viele Branchen zu revolutionieren.

Aber was macht ChatGPT eigentlich? Es kann Eingaben für Marketingtexte liefern, E-Mails entwerfen, Texte zusammenfassen oder sogar Codezeilen zur Klassifizierung von Inhalten vorschlagen. Je präziser die Eingabeaufforderung ist, desto besser ist das Ergebnis, weshalb sich eine neue Disziplin namens Prompt Engineering herausgebildet hat. Zu den Alternativen zu ChatGPT gehören andere generative KI-Tools wie Google Bard und Microsoft Bing Chat sowie KI-basierte Schreibprogramme wie Jasper.

LLMs wie GPT und Googles BERT sind Teil der so genannten General Purpose AI. Diese großen Modelle können zur Durchführung textbasierter Aufgaben wie Übersetzung, Sentiment Analyse und Beantwortung von Fragen verwendet werden. LLMs werden mit riesigen Mengen von Textdaten trainiert und können in allgemeine KI-Tools wie ChatGPT oder in kundenspezifische KI-Lösungen für Unternehmen integriert werden. Dies setzt allerdings  eine Feinabstimmung durch ein Team von Data Scientists voraus. Einige dieser LLMs wie LLama von Meta sind open source, während andere, wie GPT, lizenziert werden müssen.

Abgesehen von der Art der Anwendungen, bei denen sie helfen können, birgt die unternehmensweite Implementierung von ChatGPT und LLMs einige Risiken. Vergleichen wir die wichtigsten Faktoren: Zugang, Kosten, Zuverlässigkeit, Transparenz, Datenschutz und Nachhaltigkeit.

Einfacher Zugang und Kosten

Der große Unterschied zwischen ChatGPT und großen Sprachmodellen liegt in der Art und Weise, wie auf sie zugegriffen werden kann, und folglich auch in ihren Kosten. Während ChatGPT ein sofort einsatzbereites Tool ist, bei dem Sie lediglich ein Konto erstellen müssen, um direkten Zugang zu erhalten, erfordern LLMs erhebliche interne Ressourcen, einschließlich KI-Experten und Dateninfrastruktur, um eingesetzt zu werden.

ChatGPT erfordert zwar nur minimale Vorabinvestitionen (im Wesentlichen die Kosten Ihres Entwicklungsteams für die Entwicklung einer Anwendung), aber die begrenzte Differenzierung und Kontrolle über seine Antworten wird für die Bedürfnisse vieler Unternehmen nicht ausreichen, es sei denn, Sie bauen einen sehr generischen Chatbot und sind mit eher oberflächlichen Antworten zufrieden.

Hunderte von Artikeln wurden bereits über die Kosten für die Schulung von LLMs geschrieben – Forscher schätzen die Kosten für die Schulung von GPT-3 auf 4,6 Millionen Dollar. Glücklicherweise können Unternehmen auf bereits trainierte Versionen von LLMs zurückgreifen, die jedoch eine Feinabstimmung für spezifische Anwendungsfälle erfordern. Dieser Anpassungsprozess erfordert nach wie vor erhebliche Ressourcen in Form von GPUs, Cloud-Computing und Fachwissen, wie wir in einem früheren Beitrag berichtet haben.

Verlässlichkeit

„Halluzinationen“ sind ein Phänomen, das sowohl bei ChatGPT als auch bei LLMs auftritt, die gelegentlich plausible, aber völlig falsche Informationen liefern, so dass es wichtig ist, vor der Verwendung der Ergebnisse menschliche Qualitätskontrollen durchzuführen. Je komplizierter die Anfrage ist, desto höher ist die Wahrscheinlichkeit, dass das System unterschiedliche Antworten auf ein und dieselbe Anfrage liefert. Dies mag für eine Marketinganfrage kein Problem darstellen, ist aber in vielen geschäftlichen Zusammenhängen nicht akzeptabel – kein Legal- oder Finanzteam kann mit Approximationen oder nicht absolut vertrauenswürdigen Quellen arbeiten.

Der Nebeneffekt ist, dass diese Tools leicht für die Erstellung von Fake News und falschen Inhalten missbraucht werden können – sei es, dass die Ukraine eine neue Offensive gestartet hat oder Donald Trump in orangefarbener Verkleidung behauptet: „Let’s make America glam“ again.

Transparenz

LLMs und folglich alle Werkzeuge, die sie verwenden – wie ChatGPT – sind Black Boxes. Das bedeutet, dass es keine Möglichkeit gibt, zurückzuverfolgen, warum und wie sie ein bestimmtes Ergebnis liefern. Dies macht es sehr schwierig, Verzerrungen in den Trainingssätzen zu beheben, die ethische Probleme aufwerfen – wie in diesem Experiment, das von Stanford-Forschern durchgeführt wurde, die ChatGPTs Antworten auf Sätze über Muslime testeten.

Dieser Mangel an Erklärbarkeit macht es schwierig, die Anforderungen an Gleichheit und Unparteilichkeit zu erfüllen, denen viele große Organisationen und öffentliche Verwaltungen unterliegen. Keine Bank kann es riskieren, einen Kredit aufgrund des Hauttyps des Antragstellers abzulehnen, und kein Unternehmen möchte sich bei seiner Einstellungspolitik dem Vorwurf der Diskriminierung aussetzen.

Sicherheit und Datenschutz

Stellen Sie sich vor: Der Junior-Assistent, der Ihnen bei Ihren Aufgaben hilft, teilt vertrauliche Besprechungsnotizen oder einen geschützten Quellcode mit dem Rest der Welt. Genau das ist Samsung passiert, als Mitarbeiter sensible Inhalte in den KI-Writer von ChatGPT eingegeben haben, ohne zu wissen, dass OpenAI nicht nur die Eingabedaten der Nutzer speichert, sondern sie auch anderen zugänglich machen kann. Anfragen, Antworten, IP-Adressen und Standorte werden von OpenAI auf Servern in den USA gespeichert und können an verbundene Unternehmen weitergegeben werden – dem stimmen Sie zu, wenn Sie sich für ChatGPT oder ein anderes OpenAI-Modell anmelden.

Unabhängig davon, ob Sie, wie JPMorgan Chase, ChatGPT vollständig von den Computern Ihrer Mitarbeiter verbannen oder, wie Zurich, ihnen verbieten, persönliche Kundendaten in das Tool einzugeben, müssen Sie unbedingt sicherstellen, dass angemessene Sicherheitsvorkehrungen getroffen werden, um zu verhindern, dass vertrauliche Unternehmensdaten in die falschen Hände geraten.

Nachhaltigkeit

Komplexe KI-Modelle, die riesige Datensätze und enorme Rechenleistung erfordern, sind nicht nur ein Problem für die Finanzen und Ressourcen Ihres Unternehmens. Sie stellen auch ein Problem für die Umwelt dar.

LLMs im Allgemeinen und GPTs im Besonderen benötigen exorbitante Mengen an Energie für Training, Feinabstimmung und Betrieb. Auch ihr Wasserverbrauch ist beträchtlich: Laut einer Studie verbrauchte Microsoft während der GPT-3-Schulung in seinen Rechenzentren etwa 700.000 Liter Süßwasser – eine vergleichbare Menge, die für die Produktion von 370 BMW-Autos benötigt wird. Eine einzige Unterhaltung mit ChatGPT verbraucht das Äquivalent einer 500-ml-Flasche Wasser – man stelle sich den gesamten Wasserfußabdruck vor, bedenkt man die Milliarden von Nutzern!

Welche Alternativen gibt es zu ChatGPT und LLMs?

Semantic Folding ist eine alternative Methode für die Verarbeitung natürlicher Sprache, die die Unzulänglichkeiten von LLMs in Bezug auf Zuverlässigkeit, Transparenz, Sicherheit und Nachhaltigkeit behebt. Dieser Ansatz des maschinellen Lernens nutzt die Neurowissenschaften, um Text ähnlich wie unser Gehirn zu verarbeiten. Außerdem benötigt es deutlich weniger Trainingsdaten und Rechenressourcen als LLMs, um ein ähnliches Maß an Genauigkeit zu erreichen.

Im Gegensatz zu LLMs, die in einem Forschungskontext entwickelt wurden, wurde Semantic Folding für die Lösung von KI-Anwendungsfällen in einem Geschäftskontext konzipiert, insbesondere für Extraktions-, Klassifizierungs-, Such- und Vergleichsaufgaben. Es ist vollständig transparent, ermöglicht eine tiefe Inspektion der Parameter und bietet eine vollständige Erklärbarkeit der Modelle. Aus Sicht des Datenschutzes ist Semantic Folding GDPR-konform: Es werden keine Unternehmensdaten weitergegeben oder außerhalb Ihres Unternehmens verwendet.

Die Zukunft der KI in Unternehmen ist vielversprechend

Der kometenhafte Aufstieg von ChatGPT, LLMs und generativer KI ist nicht mehr aufzuhalten. Gartner schätzt, dass bis 2025 30 % der ausgehenden Marketingnachrichten großer Unternehmen synthetisch generiert werden und dass bis 2030 90 % aller Blockbuster-Filme durch KI erzeugt werden. Doch bevor man sich auf diese Spitzentechnologien einlässt, sollte man sich über die damit verbundenen Risiken im Klaren sein. Es macht einen großen Unterschied, ob Sie eine kleine Pizzeria sind, die ChatGPT zur Erstellung einer Website einsetzt, oder ein Fortune-1000-Unternehmen, das die ESG-Anforderungen erfüllen muss. Aus Unternehmenssicht müssen bestimmte Standards in Bezug auf Zuverlässigkeit, Transparenz, Sicherheit und Nachhaltigkeit eingehalten werden, und Unternehmen, die KI-Lösungen einsetzen wollen, müssen die Vorteile und Grenzen der Technologie, mit der sie arbeiten, sorgfältig abwägen.


https://www.cortical.io/

Kommen Sie zur diesjährigen Legal Tech Konferenz!
Es erwartet Sie ein spannender Tag rund um das Thema Digitalisierung und Legal Tech