Generatieve AI
Wat is het en waarom is het belangrijk
Generatieve AI gebruikt bestaande data, leert ervan en genereert vervolgens data met vergelijkbare kenmerken. Het kan bijvoorbeeld tekst, afbeeldingen, audio, video en computercode genereren.
De evolutie van generatieve AI
Traditionele AI- en machine learning-systemen herkennen patronen in data en doen aan de hand daarvan voorspellingen. Maar generatieve AI gaat verder dan voorspellen. Het genereert nieuwe data als primaire output. Stel je voor dat je aan een chatbot (zoals ChatGPT) een aantal woorden geeft om een idee te omschrijven, en je luttele seconden later een volledige tekst voor een speech in handen hebt. Dat je muziek, kunst of afbeeldingen kunt genereren aan de hand van tekstuele beschrijvingen. Of dat je een zakelijke strategie kunt ontwikkelen door middel van een conversatie met een generatieve AI-tool.
Waar is het allemaal begonnen?
In tegenstelling tot wat wordt gedacht, is generatieve AI niet nieuw. Het is gemaakt op basis van technologieën die we al decennialang gebruiken, waaronder AI, machine learning en statistische methodes. Drie belangrijke generatieve AI-technologieën zijn digitale tweelingen (digital twins), grote taalmodellen (large language models) en synthetische datageneratie (synthetic data generation).
De oorsprong van generatieve AI gaat al veel langer terug, maar wij beginnen in 1966 met een chatbot genaamd ELIZA.
Joseph Weizenbaum, die ELIZA bouwde, ontwierp de bot om Rogeriaanse psychotherapeuten te imiteren die spiegelen wat een patiënt zegt. Om dit te kunnen doen gebruikt ELIZA patroonherkenning. ELIZA was een van de eerste programma's die de turingtest deed –een imitatiespel om te testen of een machine menselijke intelligentie kan vertonen.
Naarmate de methoden voor het analyseren van ongestructureerde tekstgegevens zich ontwikkelden, groeiden in de jaren 1970 tot 1990 de semantische netwerken, ontologieën, terugkerende neurale netwerken (RNN) en nog veel meer. Van 2000 tot 2015 verbeterden taalmodellering en het inbedden van woorden, en zo ontstond Google Translate.
In 2014 ontwikkelden Ian Goodfellow en zijn collega's het Generative Adversarial Network (GAN), waarbij ze twee neurale netwerken instelden om met elkaar te wedijveren (m.a.w. elkaar te trainen). Eén netwerk genereerde data terwijl het andere probeerde vast te stellen of de data echt of nep was. In 2017 werden transformer-modellen geïntroduceerd. Ze gebruikten een zelfcontrole mechanisme waarmee ze het belang van verschillende delen van de input konden afwegen bij het maken van voorspellingen. Architecturen zoals BERT en ELMo werden ook populair.
Vervolgens zagen we in 2018 het eerste GPT-model (generative pre-trained transformer). Dit model was getraind met grote hoeveelheden tekstgegevens van het internet. Met 117 miljoen parameters kon het tekst genereren die in stijl en content vergelijkbaar was aan de trainingsdata. Tegen 2023 hadden grote GPT-modellen zich zover ontwikkeld dat ze goed scoorden op moeilijke examens, zoals het Amerikaanse advocatenexamen.
De snelle opkomst van generatieve AI-technologie
De impact van generatieve AI, een ontwrichtende technologie, wordt vergeleken met ontdekkingen zoals elektriciteit en de drukpers. Spraakgestuurde AI-modellen zoals ChatGPT hebben het potentieel om de productiviteit drastisch te verhogen. Ze hebben in die hoedanigheid dan ook een enorme vlucht genomen in populariteit onder bedrijven en alledaagse gebruikers. Maar er zijn ook zorgen over data privacy, vooroordelen (bias) in AI, ethiek en de nauwkeurigheid. De wereldwijde markt voor generatieve AI zal naar verwachting groeien naar $ 110,8 miljard tegen 2030.
Beleidsmakers gebruiken digitale twin-technologie om vast te stellen hoe nieuwe belastingmaatregelen burgers kunnen beïnvloeden.
Het bepalen van de 'winnaars' en 'verliezers' van mogelijke wijzigingen in het belastingstelsel voordat de regelgeving is geïmplementeerd, is cruciaal voor de Belgische Federale Overheidsdienst Financiën. Wanneer snelle en accurate antwoorden vereist zijn, gebruikt de FOD Financiën het programma Aurora. Dit is een digitale tweeling van de rekenmachine die de inkomstenbelasting van het land verwerkt om toekomstige schuldhervormingen te simuleren. Betere simulaties betekenen beter geïnformeerde beleidsmakers en dus ook betere resultaten.
Wie gebruikt er generatieve AI?
Generatieve AI wordt wereldwijd gebruikt in een groot aantal industrieën voor tal van zakelijke functies. Naarmate de technologie aan populariteit wint, ontstaat er tegelijkertijd enthousiasme en angst onder individuen, bedrijven en overheidsinstanties. Laten we eens kijken hoe sommige industrieën vandaag de dag generatieve AI toepassen.
De resultaten van generatieve AI zijn in de basis een weerspiegeling van de mens. Consumenten moeten continu kritisch blijven nadenken tijdens interactie met conversationele AI en 'automation bias' voorkomen (de overtuiging dat een technisch systeem waarschijnlijk nauwkeuriger en betrouwbaarder is dan een mens). Reggie Townsend VP of the SAS Data Ethics Practice
Overwegingen voor generatieve AI-modellen
Modellen zijn duur om in gebruik te nemen - ze vereisen een enorme hoeveelheid rekenkracht en data. Je moet de ROI zorgvuldig berekenen voordat je een generatief AI-model in gebruik neemt. Daarnaast zijn er de ethische overwegingen. Waar komt de data vandaan en wie is de eigenaar? Zijn de data betrouwbaar? Begrijp je precies hoe het model is ontworpen?
De werking van generatieve AI
Enkele populaire voorbeelden van generatieve AI-technologieën zijn DALL-E, een beeldgeneratiesysteem dat afbeeldingen maakt van tekstinvoer, ChatGPT (een tekstgeneratiesysteem), de Google Bard-chatbot en de door AI aangedreven Bing-zoekmachine van Microsoft. Een ander voorbeeld is het gebruik van generatieve AI om een digitale representatie te creëren van een systeem, bedrijfsproces of zelfs een persoon, zoals een grafische weergave van iemands huidige en toekomstige gezondheidsstatus.
Er zijn drie hoofdtypen van generatieve technologieën (digitale tweelingen, grote taalmodellen en het genereren van synthetische data).
Digitale tweelingen
Digitale tweelingen zijn virtuele modellen van bestaande objecten of systemen. Ze zijn ontworpen aan de hand van historische data, gegevens uit het dagelijks leven, synthetische gegevens of uit de feedbackloop van een systeem. Digitale tweelingen zijn gebouwd met software, data en verzamelingen van generatieve en niet-generatieve modellen die een fysiek systeem weerspiegelen en synchroniseren, zoals een entiteit, proces, systeem of product. Digitale tweelingen worden gebruikt om te testen, optimaliseren, monitoren of voorspellen. Een digitale tweeling van een toeleveringsketen kan bijvoorbeeld bedrijven helpen om te voorspellen wanneer er tekorten kunnen optreden.
Grote taalmodellen
Een groot taalmodel (large language model - LLM) is een krachtig machine learning-model dat complexe relaties in natuurlijke taal kan verwerken en identificeren, tekst kan genereren en gesprekken kan hebben met gebruikers. Deze modellen zijn afhankelijk van technieken zoals deep learning en neurale netwerken. LLM's worden gedefinieerd als AI-modellen die natuurlijke taal verwerken en worden getraind op enorme hoeveelheden tekstgegevens. De daaruit voortvloeiende modellen hebben miljarden parameters. OpenAI’s ChatGPT is een voorbeeld van een populair large language model.
Synthetische datageneratie
Synthetische datageneratie verwijst naar on-demand, self-service of geautomatiseerde gegevens die worden gegenereerd door algoritmes of regels in plaats van te worden verzameld uit de echte wereld. Synthetische data worden vaak gegenereerd om te voldoen aan voorwaarden die in de echte data ontbreken. Ze reproduceren dezelfde statistische eigenschappen, waarschijnlijkheden, patronen en kenmerken als de echte data op basis waarvan ze zijn getraind. Veel organisaties gebruiken synthetische data om hun privacy te beschermen of om andere problemen met het verzamelen en gebruik van echte data op te lossen, zoals kosten, tijdrovende processen voor het voorbereiden van gegevens, of vooroordelen (bias).
Er zijn vele andere technologieën die generatieve AI mogelijk maken en ondersteunen:
Een algoritme is een overzicht van stapsgewijze instructies die is ontworpen om specifieke taken uit te voeren of een probleem op te lossen. Veel computerprogramma's zijn een reeks algoritmen die op zo'n manier geschreven zijn dat de computer ze begrijpt. Nu algoritmes menselijke beslissingen kunnen aanvullen of zelfs vervangen, moeten we onderzoeken of ze eerlijk zijn en transparantie eisen in de manier waarop ze worden ontwikkeld.
Kunstmatige intelligentie maakt het mogelijk dat machines kunnen leren van ervaringen, te reageren op nieuwe input en menselijke taken uit te voeren. AI is vaak zeer afhankelijk van deep learning en NLP. Met behulp van deze technieken kunnen computers getraind worden om specifieke taken uit te voeren door grote hoeveelheden data te verwerken en patronen in de data te ontdekken.
Deep learning is een subset van machine learning. Het traint een computer om menselijke taken uit te voeren, zoals spraakherkenning, beeldidentificatie en het maken van voorspellingen. Het verbetert het vermogen om data te classificeren, herkennen, detecteren en beschrijven. Deep learning-modellen zoals GAN's en variational autoencoders (VAE's) zijn getraind op enorme datasets en kunnen data van hoge kwaliteit genereren. Nieuwere technieken zoals StyleGAN's en transformer-modellen kunnen realistische videos, beelden, tekst en spraak creëren.
Machine learning is een methode van data-analyse die de ontwikkeling van een analytisch model automatiseert. Het gaat om een onderdeel van kunstmatige intelligentie die een machine traint om te leren. Machine learning is gebaseerd op het idee dat systemen kunnen leren van gegevens, patronen kunnen herkennen en beslissingen kunnen nemen met minimale menselijke tussenkomst.
Natural language processing is een onderdeel van kunstmatige intelligentie dat computers helpt menselijke taal te begrijpen, interpreteren en bewerken. NLP maakt gebruik van vele disciplines, waaronder computerwetenschap en computerlinguïstiek, om de kloof tussen menselijke communicatie en computersysteem te dichten
Neurale netwerken zijn computersystemen met onderling verbonden 'nodes' die bijna net zo werken als de zenuwcellen in onze hersenen. Neurale netwerken gebruiken algoritmes om verborgen patronen en verbanden tussen ruwe data te herkennen, die ze vervolgens clusteren en classificeren. Op de lange termijn leren ze van deze gegevens en worden ze steeds beter.
Reinforcement learning vindt plaats wanneer een algoritme proefondervindelijk ontdekt welke acties de beste resultaten opleveren. Reinforcement learning is een machine learning-model dat vertrouwt op een beloningssignaal voor zijn feedbackmechanisme terwijl het geleidelijk het beste (of meest belonende) beleid of doel leert. Het wordt vaak gebruikt in robotica, gaming en navigatie.
5 stappen voor het finetunen van een model
Generatieve AI maakt gebruik van veel verschillende AI-algoritmen en -technologieën om gegevens te genereren die vergelijkbare waarschijnlijkheidsverdelingen en kenmerken hebben als de gegevens waarvan wordt geleerd. In plaats van helemaal vanaf nul te beginnen, kun je deze vijf stappen volgen om een vooraf getraind groot taalmodel te verfijnen.
1. De taak definiëren.
Kies een geschikt voorgetraind large language model en definieer duidelijk de taak waarvoor het wordt afgestemd. Dit kan zijn voor tekstclassificatie (voornamelijk entiteitsherkenning), tekstgeneratie, enz.
2. De data voorbereiden.
Verzamel en bewerk je taakspecifieke gegevens voor taken als labelen, opmaken en tokenisatie. Creëer datasets voor training en validatie (en mogelijk ook tests).
3. Fine-tuning.
Train het aangepaste model op je taakspecifieke data en gebruik de trainingsdata om het gewicht van het model bij te werken. Controleer de prestaties van het model op de validatieset om overfitting te voorkomen.
4. Evalueren en testen.
Na de training evalueer je het geoptimaliseerde model op de validatieset en maak je de nodige aanpassingen op basis van de resultaten. Als je tevreden bent, test je het model op de testset om een betrouwbare schatting van de prestaties te krijgen.
5. Implementatie.
Als je vertrouwen hebt in de prestaties van het model, kun je het implementeren voor het beoogde doel. Dit kan betekenen dat je het model integreert in een applicatie, website of een ander platform.
Wat zijn synthetische data?
Data is essentieel voor het bouwen van modellen, maar data van hoge kwaliteit kan moeilijk te vinden, bevooroordeeld of duur zijn. Een manier om dit op te lossen, is het gebruik van synthetische data, die kunstmatig worden gecreëerd (vaak met algoritmen). Als we datasets uit de echte wereld gebruiken om aanvullende, synthetische data te genereren - met de juiste eigenschappen voor het bouwen van goede machine learning modellen - kunnen we modellen trainen voor vrijwel elk doel, zoals onderzoek naar een zeldzame ziekte.
Vervolgstappen
Bekijk hoe AI-oplossingen menselijke creativiteit en inspanningen kunnen vergroten.
Een AI en analytics platform
Met SAS® Viya® is er nooit sprake van te veel informatie. Leer meer over de snelste manier om van een miljard datapunten tot een inzicht te komen.
Aanbevolen literatuur
- Article Unlocking a strategic approach to data and AIAI is only as good as the data that powers it – this is a fundamental truth about data and AI that defines the limits of what’s possible with artificial intelligence. It may seem surprising, but it's rarely a bad algorithm or a bad learning model that causes AI failures. It's not the math or the science. More often, it's the quality of the data being used to answer the question. 22 oktober 2024
- Article Analytics: A must-have tool for leading the fight on prescription and illicit drug addictionStates and MFCUs now have the analytics tools they need to change the trajectory of the opioid crisis by analyzing data and predicting trouble spots – whether in patients, prescribers, distributors or manufacturers. The OIG Toolkit with free SAS® programming code makes that possible. 15 juni 2022
- Article Detect and prevent banking application fraudCredit fraud often starts with a falsified application. That’s why it’s important to use analytics starting at the entrance point. Learn how analytics and machine learning can detect fraud at the point of application by recognizing the biggest challenge – synthetic identities. 14 december 2021
- Article Three steps for conquering the last mile of analyticsPutting your analytical models into production can be the most difficult part of the analytics journey. It’s no surprise that this last mile of analytics – bringing models into deployment – is the hardest part of digital transformation initiatives for organizations to master, yet it’s the most crucial. 3 december 2019