Generative KI

Was es ist und was man darüber wissen sollte

Generative KI sammelt bereits vorhandene Daten, lernt daraus und generiert Daten mit ähnlichen Eigenschaften, zum Beispiel Text, Bilder, Audio, Video und Computer-Code.

Die Entwicklung von generativer KI

Herkömmliche AI und Systeme für maschinelles Lernen erkennen Datenmuster, um Prognosen zu erstellen. Generative AI kann aber mehr und generiert als primäre Ausgabe neue Daten. Stellen Sie sich vor, Sie geben bei einem Chatbot (wie ChatGPT) wenige Wörter ein, die Ihre Idee beschreiben, und erhalten innerhalb von Sekunden den kompletten Text für einen Vortrag. Oder generieren Sie Musik, Kunst oder Bilder anhand von textbasierten Beschreibungen. Oder entwickeln Sie durch dialogähnliche Interaktionen mit einem generativen AI-Tool eine Geschäftsstrategie.

Anwendungen generativer KI in der
realen Welt

Es wird erwartet, dass generative KI unsere Zukunft auf vorhersehbare und unvorstellbare Weise umgestalten wird. In diesem Erklärvideo sehen Sie reale Beispiele für generative KI in verschiedenen Branchen und Geschäftsbereichen, die große Sprachmodelle, synthetische Daten und digitale Zwillinge verwenden. Sie erfahren auch etwas über einige wichtige Überlegungen und Risiken beim Einsatz generativer KI-Technologie, einschließlich Verzerrungen, Halluzinationen, Datenschutz und Sicherheit.

Wie hat alles begonnen?

Entgegen landläufiger Meinungen ist generative AI nichts Neues. Sie wurde aus Technologien entwickelt, die wir schon seit Jahrzehnten verwenden, darunter AI, maschinelles Lernen und statistische Methoden. Digitale Zwillinge, Large Language Models und die Generierung synthetischer Daten sind die drei Kerntechnologien der generativen AI.

Obwohl die Ursprünge der generativen AI noch weiter in der Vergangenheit liegen, beginnen wir im Jahr 1966 mit einem Chatbot namens ELIZA.

ELIZA wurde von Joseph Weizenbaum entwickelt, um die von Carl Rogers konzipierte Gesprächspsychotherapie zu imitieren, bei der Psychotherapeut:innen das widerspiegeln, was Patient:innen sagen. Diese Leistung konnte ELIZA durch das Abgleichen von Mustern erreichen. ELIZA war eines der ersten Programme, das den Turing-Test versucht hat – ein Imitationsspiel, das die Fähigkeit einer Maschine testet, menschenähnliches Denkvermögen zu zeigen.

Die Weiterentwicklung der Analysemethoden für unstrukturierte Daten von den 1970er bis in die 1990er Jahre führte zu Wachstum bei semantischen Netzwerken, Ontologien, wiederkehrenden neuronalen Netzen und mehr. Von 2000 bis 2015 wurden die Sprachmodellierung und Worteinbettung verbessert und daraus entstand Google Translate.

Im Jahr 2014 entwickelten Ian Goodfellow und seine Kolleg:innen das Generative Adversarial Network (GAN), indem sie zwei neuronale Netze einrichteten, die gegeneinander in Wettbewerb treten (d. h. trainieren) sollten. Dabei generierte ein Netzwerk die Daten, während das andere versuchte zu erkennen, ob die Daten echt oder unecht waren. 2017 wurden Transformator-Modelle mit einem Self-Attention-Mechanismus eingeführt, mit dem sie bei Prognosen die Wichtigkeit verschiedener Teile der Eingabe bewerten konnten. Architekturen wie BERT und ELMo wurden ebenfalls beliebt.

Als Nächstes erschienen Generative Pretrained Transformer-Modelle (GPT), mit der Einführung des ersten GPT-Modells im Jahr 2018. Dieses Modell wurde mit erheblichen Mengen an Textdaten aus dem Internet trainiert. Mit 117 Millionen Parametern konnte es Texte generieren, die im Stil und Inhalt den Trainingdaten ähnelten. Bis 2023 waren die GPT Large Language Models so fortgeschritten, dass sie in schwierigen Prüfungen, wie dem juristischen Staatsexamen, gut abschneiden konnten.

Der rasante Aufstieg der generativen KI-Technologie

Als durchschlagende Technologie betrachtet, wurden die Auswirkungen von generativer AI mit der Entdeckung von Elektrizität und der Erfindung der Druckpresse verglichen. Mit dem Potenzial für massive Steigerungen der Produktivität ist die Popularität von Conversational AI-Modellen wie ChatGPT bei Unternehmen und normalen Benutzer:innen rasant gestiegen. Dazu kommen aber auch Bedenken hinsichtlich des Datenschutzes, einer Voreingenommenheit der AI, der Ethik und der Richtigkeit. Der globale Markt für generative AI wird bis 2030 voraussichtlich auf 110,8 Milliarden USD steigen.

Entscheidungsträger verwenden die digitale Zwillingstechnologie, um zu ermitteln, wie sich neue Steuermaßnahmen auf Bürger:innen auswirken könnten.

Das Ermitteln der „Gewinnenden“ und „Verlierenden“ bei potenziellen Steueränderungen noch vor der Implementierung von Vorschriften ist für Belgiens Föderalen Öffentlichen Dienst Finanzen (FPS Finanzen) äußerst wichtig. Wenn schnelle, genaue Antworten erforderlich sind, verwendet FPS Finanzen Aurora, einen digitalen Zwilling des Einkommenssteuerrechners, um zukünftige Schuldrechtsreformen zu simulieren. Bessere Simulationen führen zu besser informierten Entscheidungsträger:innen – und besseren Ergebnissen.

Generative KI in der Welt von heute

Akzeptanz vertrauenswürdiger künstlicher Intelligenz

Verbraucher:innen haben mehr Vertrauen in Unternehmen, die einen verantwortungsbewussten und ethischen Einsatz von AI nachweisen. Erfahren Sie, warum es äußerst wichtig ist, dass vertrauenswürdige AI-Systeme, die mit Inklusion, Verantwortlichkeit und dem Menschen als Mittelpunkt entwickelt wurden, akzeptiert werden.

Vorteile und Risiken von generativer AI

Sie sind neugierig, wie generative AI funktioniert und was Sie vor der Verwendung wissen sollten? Erhalten Sie eine Einführung in die Technologie, lernen Sie über das Rahmenwerk für die Einführung generativer AI-Tools und erwägen Sie, ob und wie Sie die Technologie einführen sollten.

Die Verwendung von AI im Bildungswesen

Student:innen haben mit generativer AI bereits Inhalte und Grafiken erstellt, Code geschrieben, mobile Apps entwickelt und Probleme gelöst. Obwohl generative AI sowohl unterhaltsam als auch nützlich sein kann, bedarf es Menschen, die falsche Antworten oder „Trugbilder“ erkennen und korrigieren.

Unwirkliche Wirklichkeiten: Der Stand der generativen AI

Schafft die explosionsartige Verbreitung generierter Bilder eine Unwirklichkeit, die Menschen zum Verhängnis wird? Lernen Sie die wahre Bedeutung des Begriffs „Deepfake“, erfahren Sie, wie Deepfakes zum Guten eingesetzt werden können, und sehen Sie, wie neue Techniken uns helfen können, generierte Medien aufzudecken und zu erkennen.

Beliebte AI-Tools und wie sie eingesetzt werden

Aktuell wird viel über beliebte AI-Tools berichtet. Wussten Sie aber, dass es mehr als 1.500 davon auf dem Markt gibt, einschließlich generativer AI-Tools?

Erfahren Sie, welche Tools heute am weitesten verbreitet sind und wie sie in verschiedenen Branchen eingesetzt werden.

Wer verwendet generative KI?

Generative KI betrifft eine Vielzahl von Branchen und Geschäftsfunktionen auf der ganzen Welt. Die zunehmend beliebte Technologie hat sowohl Begeisterung als auch Angst bei Einzelpersonen, Unternehmen und staatlichen Organen ausgelöst. Sehen wir uns an, wie verschiedene Branchen generative AI heute nutzen.

Banken

Banken und andere Finanzdienstleistungsunternehmen können generative AI zur Verbesserung von Entscheidungen, Minimierung von Risiken und Steigerung der Kundenzufriedenheit verwenden. Wenn generative AI-Modelle trainiert werden, um Muster zu erkennen und Anomalien aufzudecken, können sie verdächtige Aktivitäten in Echtzeit melden. Durch das Erstellen simulierter Daten für Stress-Tests und Szenario-Analysen kann generative AI Banken dabei helfen, zukünftige finanzielle Risiken vorherzusagen und Verluste zu verhindern. Und virtuelle Assistenten (wie Chatbots) können rund um die Uhr einen menschenähnlichen Service anbieten.

Versicherungen

Versicherer können synthetische Daten für die Preisgestaltung, Rückstellungen und versicherungsmathematische Modellierungen verwenden. Zum Beispiel können Versicherungsgesellschaften synthetische Daten nutzen, die historischen Informationen über Policen und Schadenersatzanträge ähneln, um Preisgestaltungsmodelle zu trainieren und zu testen. Dies hilft ihnen dabei zu bewerten, welche Performance unterschiedliche Preisstrategien erzielen würden, ohne vertrauliche persönliche Kundendaten zu verwenden. Synthetische Daten können auch bei der Bewertung unwahrscheinlicher Ereignisse wie Erdbeben oder Hurrikans helfen.

Life Sciences

Im Bereich Life Sciences gibt es zahlreiche vielversprechende Anwendungsmöglichkeiten von generativer AI. Bei der Arzneimittelforschung kann sie den Prozess zur Identifizierung neuer potenzieller Medikamente beschleunigen. Bei der klinischen Forschung hat AI das Potenzial, Informationen aus komplexen Daten zu extrahieren, um synthetische Daten und digitale Zwillinge zu erstellen, die als Datenschutzmaßnahme als Ersatz für persönliche Daten dienen. Andere Anwendungen sind die Identifizierung von Sicherheitssignalen und das Ermitteln neuer Einsätze für bereits vorhandene Behandlungen.

Herstellende Industrie

Hersteller können generative AI verwenden, um die Optimierung von Betriebsabläufen, Wartungen, Lieferketten – sogar dem Energieverbrauch – zu unterstützen und dabei geringere Kosten, eine höhere Produktivität und ein höheres Maß an Nachhaltigkeit zu erzielen. Ein generatives AI-Modell lernt aus vorhandenen Leistungs-, Wartungs- und Sensordaten, Prognosen, externen Faktoren und noch mehr, und bietet dann entsprechende Verbesserungsstrategien.

Öffentliche Verwaltung

Sprachtechnologien (Natural Language Processing, NLP) und Chatbots können Sachbearbeiter:innen im öffentlichen Dienst dabei helfen, schneller auf die Bedürfnisse von Bürger:innen zu reagieren. Zum Beispiel können sie die Rettungsdienste für Menschen in überschwemmungsgefährdeten Gebieten optimieren oder unterversorgte Stadtteile unterstützen. Generative AI-Techniken – wie Vorhersagemodelle und Simulationen – können erhebliche Mengen an historischen Daten, Daten zur öffentlichen Meinung und anderen Indikatoren analysieren, um Empfehlungen zum Reduzieren von Verkehrsstörungen, zur Verbesserung der Infrastrukturplanung und zur Optimierung der Ressourcenverteilung zu generieren.

Einzelhandel

Der Erfolg im Einzelhandel hängt von einem Verständnis der Käufernachfrage, von der Gestaltung von Customer Experiences, die Kund:innen ansprechen, und von der Sicherstellung einer zuverlässigen, stabilen Lieferkette ab. Einige Einzelhändler verwenden generative AI mit digitalen Zwillingen, um zum Beispiel Planer:innen einen Einblick in potenzielle Szenarien zu bieten – wie unterbrochene Lieferketten oder begrenzte Ressourcen. Dies wird durch fortgeschrittene AI-Simulationen und Datenmodellierung möglich.

Im Kern spiegeln die Ergebnisse der generativen AI uns Menschen wider. ... Verbraucher;innen müssen weiterhin bei Interaktionen mit Conversational AI kritisch denken und den Hang zur Automatisierung vermeiden (d. h. den Glauben, dass ein technisches System wahrscheinlich genauer und wahrheitsgetreuer als ein Mensch sein wird). Reggie Townsend VP of the SAS Data Ethics Practice

Was bei generativen AI-Modellen zu berücksichtigen ist

Das Ausführen von Modellen ist teuer und erfordert gewaltige Mengen an Rechenleistung und Daten. Bevor Sie ein generatives AI-Modell implementieren, sollten Sie den ROI sorgfältig bewerten. Es gibt auch ethische Überlegungen. Wo kommen die Daten her – und und wem gehören sie? Ist das Modell vertrauenswürdig? Verstehen Sie genau, wie das Modell erstellt wurde?

So funktioniert generative KI

Einige beliebte Beispiele für generative AI-Technologien sind DALL-E, ein Bildgenerierungssystem, das Bilder aus Texteingaben erstellt, ChatGPT (ein Text-Generierungssystem), der Google Bard-Chatbot und Bing, die AI-gestützte Suchmaschine von Microsoft. Ein weiteres Beispiel ist die Verwendung von AI, um eine digitale Darstellung eines Systems, eines Geschäftsprozesses oder sogar einer Person zu erstellen – wie zum Beispiel eine dynamische Darstellung des aktuellen und zukünftigen Gesundheitszustandes eines Menschen.

Es gibt drei Hauptarten von generativen Technologien (digitale Zwillinge, Large Language Models und die Generierung synthetischer Daten).

Digitale Zwillinge

Digitale Zwillinge sind virtuelle Modelle von echten Objekten oder Systemen, die aus historischen, echten, synthetischen Daten oder Daten, die aus der Feedback-Schleife eines Systems gewonnen wurden, erstellt werden. Sie werden mit Software, Daten und generativen und nicht-generativen Modellen erstellt, die ein physisches System widerspiegeln und sich mit dem System synchronisieren – wie eine Entität, ein Prozess, ein System oder ein Produkt. Digitale Zwillinge werden zum Testen, Optimieren, Überwachen oder Prognostizieren eingesetzt. Zum Beispiel kann der digitale Zwilling einer Lieferkette Unternehmen helfen, Lieferengpässe vorherzusagen.

Large Language Models

Ein Large Language Model (LLM) ist ein leistungsstarkes Modell für maschinelles Lernens, das komplexe Zusammenhänge in natürlicher Sprache verarbeiten und identifizieren, Texte erstellen und Gespräche mit Nutzer:innen führen kann. Diese Modelle beruhen auf Techniken wie Deep Learning und neuronalen Netzen. LLMs werden als AI-Modelle zur Verarbeitung natürlicher Sprache definiert und werden mit enormen Textdatenmengen trainiert. Die daraus resultierenden Modelle weisen Milliarden von Parametern auf. ChatGPT von OpenAI ist ein Beispiel für ein beliebtes Large Language Model.

Generierung synthetischer Daten

Die Generierung synthetischer Daten bezeichnet On-demand-Daten, automatisierte oder Self-Service-Daten, die von Algorithmen oder Regeln generiert wurden und nicht aus der realen Welt stammen. Synthetische Daten werden oft generiert, um Bedingungen zu erfüllen, wenn echte Daten fehlen. Sie reproduzieren die statistischen Eigenschaften, Wahrscheinlichkeiten, Muster und Besonderheiten der Daten aus der realen Welt, mit denen sie trainiert wurden. Viele Unternehmen verwenden synthetische Daten als Datenschutzmechanismus oder zur Überwindung anderer Schwierigkeiten bei der Sammlung und Verwendung von Daten aus der realen Welt, wie Kosten, zeitaufwändige Datenvorbereitungsprozesse oder Voreingenommenheiten.

Es gibt mehrere andere Technologien, die generative AI ermöglichen und unterstützen:

Bei einem Algorithmus handelt es sich um eine Schritt-für Schritt-Anleitung, um eine bestimmte Aufgabe zu erledigen oder ein Problem zu lösen. Viele Computerprogramme sind eine Abfolge von Algorithmen, die so geschrieben sind, dass der Computer sie versteht. Da Algorithmen menschliche Entscheidungen allmählich ergänzen oder ersetzen, müssen wir deren Fairness überwachen und Transparenz in deren Entwicklung fordern.

Künstliche Intelligenz versetzt Maschinen in die Lage, aus Erfahrung zu lernen, sich auf neu eingehende Information einzustellen und Aufgaben zu bewältigen, die menschenähnliches Denkvermögen erfordern. Oft basiert AI vor allem auf Deep Learning und NLP. Mit diesen Technologien können Computer für bestimmte Aufgaben trainiert werden, indem sie große Datenmengen verarbeiten und Muster erkennen.

Deep Learning ist ein Teilbereich des maschinellen Lernens und trainiert einen Computer für menschenähnliche Aufgaben, wie z. B. Spracherkennung, Bildklassifizierung oder Vorhersagen. Es verbessert die Fähigkeiten der Klassifizierung, Erkennung, Entdeckung und Beschreibung mit Hilfe von Daten. Deep Learning-Modelle wie GANs und variable Autoencoder (VAEs) werden anhand enormer Datensätze trainiert und können qualitativ hochwertige Daten generieren. Neuere Techniken wie StyleGANs und Transformer-Modelle können realistische Videos, Bilder, Texte und Sprache erstellen.

Maschinelles Lernen ist eine Datenanalysemethode, die das automatisierte Erstellen von Analysemodellen ermöglicht. Es ist ein Zweig der künstlichen Intelligenz, der Maschinen das Lernen beibringt. Maschinelles Lernen basiert auf dem Gedanken, dass Systeme aus Daten lernen, Muster erkennen und Entscheidungen treffen können – mit minimaler menschlicher Intervention.

Die Verarbeitung natürlicher Sprache (Natural Language Processing, NLP) ist ein Teilbereich der künstlichen Intelligenz. Sie soll Computer in die Lage versetzen, menschliche Sprache zu verstehen, zu interpretieren und zu manipulieren. NLP will die Lücke zwischen menschlicher Kommunikation und den Sprachverarbeitungsfähigkeiten von Computern schließen und greift dazu auf eine Vielzahl von Disziplinen zurück, unter anderem die Informatik und die Computerlinguistik.

Neuronale Netze sind Computersysteme, bestehend aus miteinander verbundenen Knoten, die ähnlich wie Neuronen im menschlichen Gehirn funktionieren. Anhand von Algorithmen können neuronale Netze verborgene Muster und Korrelationen in Rohdaten erkennen, diese clustern und einordnen, kontinuierlich lernen und im Laufe der Zeit besser werden.

Bestärkendes Lernen bedeutet, dass ein Algorithmus durch systematisches Ausprobieren erkennt, welche Aktionen die größten Vorteile erbringen. Bestärkendes Lernen ist ein Modell maschinellen Lernens. Sein Feedback-Mechanismus beruht auf einem Belohnungssignal, während es nach und nach die beste Strategie oder das beste Ziel (oder die mit der höchsten Belohnung) ermittelt. Es kommt häufig im Zusammenhang mit Robotik, Gaming und Navigation zum Einsatz.

5 Schritte zur Optimierung eines Modells

Generative KI beruht auf verschiedenen AI-Algorithmen und Technologien, um Daten zu generieren, die ähnliche Wahrscheinlichkeitsverteilungen und Eigenschaften wie die Daten aufweisen, mit denen sie trainiert wird. Befolgen Sie diese fünf Schritte, um ein vortrainiertes grundlegendes Large Language Model zu optimieren, anstatt ein neues zu erstellen.

1. Die Aufgabe definieren.

Wählen Sie ein geeignetes vortrainiertes Large Language Model aus und definieren Sie die Aufgabe genau, für die es optimiert wird. Hier könnte es sich um Textklassifizierung (d. h. Entitätserkennung), Textgenerierung usw. handeln.

2. Daten vorbereiten.

Sammeln und verarbeiten Sie Ihre aufgabenspezifischen Daten im Voraus – für Aufgaben wie Benennung, Formatieren und Tokenisierung. Erstellen Sie Datensätze für das Trainieren und die Validierung der Datensätze (und möglicherweise Testdatensätze).

3. Optimieren.

Trainieren Sie das modifizierte Modell mit Ihren aufgabenspezifischen Daten und verwenden Sie den Trainingsdatensatz, um die Gewichtung des Modells zu aktualisieren. Überwachen Sie die Performance des Modells im Validierungsdatensatz, um eine Überanpassung zu verhindern.

4. Bewerten und Testen.

Nach der Trainingphase sollten Sie Ihr optimiertes Modell anhand des Validierungsdatensatzes bewerten und basierend auf den Ergebnissen Anpassungen vornehmen. Wenn Sie mit den Ergebnissen zufrieden sind, testen Sie das Modell im Testdatensatz, um eine unverzerrte Schätzung der Performance zu erhalten.

5. Bereitstellen.

Wenn Sie von der Performance des Modells überzeugt sind, stellen Sie es für den gewünschten Zweck bereit. Hierbei könnte es sich um die Integration des Modells in eine Anwendung, eine Website oder eine andere Plattform handeln.

Was sind synthetische Daten?

Daten sind für das Erstellen von Modellen äußerst wichtig. Es kann jedoch schwierig sein, qualitativ hochwertige, nicht verzerrte und kostengünstige Daten zu finden. Dieses Problem kann man mit dem Einsatz synthetischer Daten überwinden, die künstlich erstellt werden (oft durch Algorithmen). Wenn wir Datensätze aus der realen Welt verwenden, um zusätzliche, synthetische Daten zu generieren – mit den richtigen Eigenschaften, um gute Modelle für maschinelles Lernen zu erstellen – können wir Modelle für fast jeden Zweck trainieren, wie z. B. die Erforschung einer seltenen Krankheit.

Nächste Schritte

Erfahren Sie, wie AI-Lösungen menschliche Kreativität und Vorhaben bereichern können.

Eine AI- und Analytics-Plattform

Mit SAS® Viya® immer die richtigen Informationen erhalten. Erfahren Sie, wie Sie am schnellsten von einer Milliarde Datenpunkten zu einem Standpunkt kommen.


Literaturempfehlungen

Setzen Sie sich mit uns in Verbindung