Hvad er AI-hallucinationer?
Elaine Hamill, redaktør for SAS Insights
Det globale marked for generativ kunstig intelligens (GenAI) forventes at vokse voldsomt i de næste fem år. Hvordan kan vi afbalancere det store løfte om AI med behovet for sikkerhed og ansvar, især i et valgår? Lad os starte med at forstå AI-hallucinationer, herunder hvorfor det bliver stadig sværere at skelne fakta fra AI-genereret fiktion.
Forståelse af AI-hallucinationer
I en ideel verden ville generative AI-værktøjer som Googles Gemini og OpenAI's ChatGPT svare korrekt på alle spørgsmål, som en bruger stiller. De ville give svar, der er nøjagtige og korrekte hver gang.
Men i den virkelige verden tager GenAI nogle gange fejl. Af og til finder GenAI endda på ting. AI-hallucinationer opstår, når de store sprogmodeller (LLM'er), der ligger til grund for AI-chatbots, genererer meningsløse eller falske oplysninger som svar på brugerens spørgsmål.
Med mere end 5,3 milliarder mennesker på verdensplan, der bruger internettet, absorberer de LLM'er, der driver generativ AI, konstant og vilkårligt data. Det omfatter de milliarder af videoer, fotos, e-mails, opslag på sociale medier og meget mere, som mennesker skaber hver eneste dag.
På baggrund af dette datarige miskmask kan generativ AI registrere oplysninger, mønstre eller objekter, som ikke findes. Disse fejlopfattelser producerer AI-hallucinationer - data, indhold eller resultater - som er falske, ulogiske eller på anden måde unøjagtige.
Det lyder mærkeligt, men det er sandt. AI kan opfatte og opfatter ting, der ikke er virkelige. Og AI-hallucinationer spænder fra det komisk falske til det helt forkerte. Nogle AI-hallucinationer kan endda lyde eller virke overbevisende korrekte eller nøjagtige for det utrænede øje eller øre.
Følgevirkninger af AI-hallucinationer
Konsekvenserne af AI-hallucinationer kan være betydelige og omfattende. Det gælder især, når det drejer sig om den hurtige spredning af misinformation.
Millionvis af mennesker er strømmet til generative AI-værktøjer siden den globale introduktion til ChatGPT i november 2022. I april 2024 brugte mere end 180 millioner mennesker ChatGPT.
Desværre øges antallet af AI-hallucinationer lige så hurtigt. Hvor ofte forekommer AI-hallucinationer? Tjek Vectaras Hallucination Leaderboard, som (i april 2024) viste, at GPT4 Turbo var mindst tilbøjelig til at hallucinere med en fejlrate på 2,5 %.
Det er værd at bemærke, at ChatGPT nu inkluderer en ansvarsfraskrivelse lige under det åbne tekstfelt: “ChatGPT kan begå fejl. Overvej at tjekke vigtige oplysninger.” Og Googles Gemini anbefaler, at brugerne dobbelttjekker deres svar.
Generativ AI: Hvad det er, og hvorfor det er vigtigt
Tjek vores forklaringsside for at dykke dybere ned i GenAI. Læs om dets historie, oplev, hvordan det fungerer, lær om relaterede teknologier og modeller, og opdag nuancerne i, hvordan det bruges på tværs af brancher.
Årsager til AI-hallucinationer
Der er ingen enkelt eller definitiv årsag til AI-hallucinationer. Alt fra utilstrækkelige data til fejlbehæftede eller forudindtagede data til de mange mulige særheder ved brugeranmodninger kan bidrage til upræcise resultater.
Input-bias er en førende årsag til AI-hallucinationer. Ikke overraskende vil enhver AI-model, der er trænet på et partisk eller fejlbehæftet datasæt, sandsynligvis hallucinere mønstre eller egenskaber, der afspejler disse partiskheder og fejl. Bliver nogle AI-modeller bevidst manipuleret til at generere skæve resultater? Helt sikkert. Teknologivirksomhederne er ved at få øjnene op for det og forsøger at være på forkant med disse forbryderiske svindlere. Men at stoppe input-bias, før det starter, vil fortsat være en kamp.
Overfitting og underfitting spiller også en rolle i at få modeller til at hallucinere. Overfitting sker, når en model er for kompleks - når den lærer detaljerne og støjen i træningsdataene lidt for godt. Komplekse modeller fungerer ganske godt på deres træningsdata. Men de kan ikke ekstrapolere, som de burde, så disse modeller klarer sig dårligt på nye data. De er simpelthen for skræddersyede til deres træningsdata til at kunne give pålidelige forudsigelser baseret på andre data.
Undertilpasning er det modsatte - det sker, når en model er for simpel. Modeller, der ikke er tilstrækkeligt komplekse, kan ikke opdage detaljer, mønstre og relationer i træningsdata. Så modellen fungerer utilstrækkeligt på både træningsdataene og alle nye data, den absorberer.
Tilgiv analogien, men forestil dig, at en LLM fungerer som en affaldspresser. Næsten alt kan komme ind i den, og det gør det også, og det hele komprimeres gentagne gange for at gøre plads til mere. I den proces går detaljerne og de finere punkter i det, der føres ind i modellen, tabt.
Takket være plotlines fra populære film og tv-serier kan LLM'er se ud til at være i stand til at tænke og ræsonnere. Men det er de selvfølgelig ikke. De forudsiger blot sandsynlige svar på de spørgsmål, de modtager, baseret på de data, de har absorberet. Disse modeller kan ikke give svar, der er fuldt ud forankret i virkeligheden 100 % af tiden (i hvert fald ikke endnu).
At finde det optimale kompleksitetsniveau for en given LLM indebærer at justere antallet af funktioner, mængden af træning, som modellen gennemgår, og antallet af træningseksempler, som den modtager.
Prompt-teknik kan også påvirke resultatet af generativ AI. Prompts, der er detaljerede og præcise, er meget mere tilbøjelige til at generere nøjagtige svar eller resultater end vage, selvmodsigende eller uklare prompts. At give GenAI specifikke retningslinjer eller parametre i forespørgsler kan ligeledes hjælpe med at skabe bedre resultater. Det samme kan tilføjelse af kontekst til forespørgsler og endda tildeling af en bestemt rolle eller et bestemt perspektiv til AI-værktøjet for at hjælpe med at forfine dets fokus.
Indvirkning af AI-hallucinationer
Der er klare konsekvenser af AI-hallucinationer i den virkelige verden. Overvej disse eksempler fra et tværsnit af brancher og applikationer:
- Fordi 2024 er et valgår, er spredning af misinformation ved hjælp af AI-hallucinationer et varmt emne i hele verden. Gad vide, hvad frontløberne gør for at sikre nøjagtighed og gennemsigtighed? Se her, hvordan OpenAI griber de verdensomspændende valg i 2024 an.
- Inden for finansielle tjenester kan GenAI hjælpe med at spare penge, forbedre beslutninger, mindske risici og øge kundetilfredsheden. På den anden side kan AI godkende uegnede ansøgere til kredit eller lån, hvilket skaber risiko for økonomiske tab for institutionen. Selv om vi måske en dag vil opleve AI-drevne investeringsrådgivningstjenester, er mennesker indtil videre stadig i høj grad med i GenAI-loopet. Oplev for eksempel, hvordan japanske Daiwa Securities bruger AI til bedre at engagere kunder og skabe vækst i deres forretning.
- Forsikringsselskaberne sætter pris på den øgede hastighed, effektivitet og præcision, som AI tilbyder. Men brugen af AI giver også potentielle etiske og juridiske problemer, som f.eks. bias eller diskrimination i modeller og algoritmer. Find ud af, hvordan AI omformer forsikringsbranchens fremtid.
- Der er masser af lovende anvendelsesmuligheder for GenAI inden for sundhedspleje og biovidenskab. Men det kan også åbne døren for en hurtig spredning af unøjagtige diagnoser, falske lægejournaler og endda falske billeder, herunder røntgenbilleder. Læs mere om generativ AI i hænderne på svindlere i sundhedsvæsenet.
Succes afhænger i høj grad af at sikre, at AI-modeller trænes på store, forskelligartede og afbalancerede datasæt af høj kvalitet. Det hjælper modellerne med at minimere bias og generere mere retfærdige og præcise resultater.
Håndtering og afhjælpning af AI-hallucinationer
Udviklere af førende AI-systemer ved godt, at selv en lille hallucinationsrate er uacceptabel. Hvad kan man gøre for at forbedre nøjagtigheden og forhindre AI-hallucinationer?
Succes afhænger i høj grad af at sikre, at AI-modeller trænes på store, forskelligartede og afbalancerede datasæt af høj kvalitet. Det hjælper modellerne med at minimere bias og generere mere ægte og præcise resultater. Det er også vigtigt at reducere støj, da ufuldstændige data eller uregelmæssigheder i data kan bidrage til AI-hallucinationer.
Forstærkningslæring hjælper også med at modvirke AI-hallucinationer. Både maskinlæring og menneskelig feedback kan træne AI-modeller til at træffe bedre beslutninger og producere mere præcise resultater. Så hvis en chatbot beder dig om at vurdere kvaliteten af dens svar eller anbefaling, så gør det! Din feedback vil hjælpe med at styrke modellen, og det er en af de bedste måder, hvorpå mennesker kan hjælpe med at forbedre kvaliteten af GenAI's output.
Beskyttelsesforanstaltninger mod AI-hallucinationer
AI-hallucinationer og de problemer, de kan forårsage, kan være utroligt virkelige - og de problemer kan påvirke den virkelige verden. LLM'er kan få AI-verdenen til at køre rundt, men de skal bruges ansvarligt for at forhindre AI-hallucinationer i at opstå.
I takt med at truslen om spredning af misinformation truer, øges indsatsen for at holde GenAI på sporet og forhindre AI-hallucinationer. Fra Nvidia’s NeMo Guardrails til Guardrails AI AI og andre er validering og verificering af, hvordan AI-modeller fungerer, ved at blive big business.
Med tiden vil GenAI-modeller absorbere flere data og løbende forfine deres output. Indtil alt AI-genereret indhold er faktatjekket, nøjagtigt og pålideligt, spiller mennesker dog stadig en stor rolle i at sikre, at GenAI lever op til sit løfte.
Rapport om generativ AI: Læs resultaterne
Vi spurgte beslutningstagere om de udfordringer og muligheder, de stod over for, da de implementerede generativ AI. Lær af deres erfaringer, og find ud af, hvordan du identificerer dine bedste GenAI-forretningscases.
Om forfatteren
Elaine Hamill er seniorredaktør i Thought Leadership, Editorial and Content-teamet hos SAS. Hun er en livslang ordsmed med mere end 25 års erfaring med at skrive og redigere indhold i en række forskellige brancher, herunder finans, detailhandel, sundhedspleje, uddannelse og teknologi.
Anbefalet læsning
- What are chatbots?Chatbots are a form of conversational AI designed to simplify human interaction with computers. Learn how chatbots are used in business and how they can be incorporated into analytics applications.
- Online payment fraud stops hereBillions of dollars each year are lost to online payment fraud through channels that provide convenient – yet vulnerable – ways to shop and bank. See how to fight back and win with advanced analytics.
- Payment fraud evolves fast – can we stay ahead?Payment fraud happens when a criminal steals a person’s private payment information, then uses it for an illegal transaction. As payment trends evolve, so do the fraudsters. Banks and PSPs can fight back with advanced analytics techniques that adapt quickly to spot anomalies in behavior.
Er du klar til at abonnere på Insights nu?