Vad är AI- hallucinationer?
Elaine Hamill, redaktör för SAS Insights
Den globala marknaden för generativ artificiell intelligens (GenAI) förväntas växa något enormt under de kommande fem åren. Hur kan vi balansera AI:s stora potential med behovet av säkerhet och ansvarstagande, särskilt under ett valår? Låt oss börja med att förstå AI- hallucinationer, inklusive varför det blir allt svårare att skilja fakta från AI-genererat påhitt.
Att förstå AI- hallucinationer
I en ideal värld skulle generativa AI- verktyg, så som Googles Gemini och OpenAI:s ChatGPT, hantera alla promptar användare matar in på ett lämpligt sätt. De skulle alltid erbjuda noggranna och korrekta svar.
Men i den verkliga världen lyckas inte GenAI varje gång. Då och då hittar GenAI till och med på saker. AI-hallucinationer inträffar när de stora språkmodellerna som stöttar AI-chattbottar genererar orimlig eller falsk information som svar på användares promptar.
Med över 5,3 miljarder internetanvändare runt om i världen absorberar de stora språkmodellerna som driver generativ AI konstant och godtyckligt data. Det inkluderar de miljarder videor, foton, e-mail, inlägg på sociala medier och allt därtill som människor skapar varje dag.
Eftersom generativ AI tränas på denna datarika blandning kan den upptäcka information, mönster eller objekt som inte existerar. De här missuppfattningarna producerar AI- hallucinationer – data, innehåll eller resultat – som är falska, ologiska eller på andra sätt inkorrekta.
Det låter märkligt, men det är sant. AI kan uppfatta saker som inte är verkliga, och gör det från gång till gång. AI-hallucinationer sträcker sig från komiskt falska till en aning missvisande. Vissa AI-hallucinationer kan till och med låta eller verka övertygande korrekta eller exakta för ett otränat öga eller öra.
Efterverkningar av AI- hallucinationer
Konsekvenserna av AI- hallucinationer kan vara betydande och omfattande. Det är särskilt sant när det gäller snabb spridning av missinformation.
Hundratals miljoner människor har sökt sig till generativa AI-verktyg sedan ChatGPT lanserades globalt i november 2022. I april 2024 använde över 180 miljoner människor ChatGPT.
Tyvärr har AI-hallucinationer fördubblats lika snabbt. Hur ofta förekommer AI-hallucinationer? Ta en titt på Vectara’s Hallucination Leaderboard som (i april 2024) visade att GPT4 Turbo var minst benägen att hallucinera, med en felfrekvens på 2,5%.
Det är värt att notera att ChatGPT numera inkluderar en friskrivningsklausul alldeles under det tomma textfältet: ”ChatGPT kan begå misstag. Kontrollera viktig information.” Även Googles Gemini rekommenderar användare att dubbelkolla de svar de får.
Generativ AI: Vad det är och varför det är viktigt
Kolla igenom vår genomgång för att dyka djupare i GenAI. Läs om dess historia, hur det fungerar, lär dig om relaterade teknologier och modeller samt upptäck nyanser av hur det används i olika branscher.
Orsaker bakom AI- hallucinationer
Det finns inte en enda eller avgörande orsak till AI- hallucinationer. Allt från otillräcklig data till bristfällig eller partisk data till hur användarens prompt är formulerad kan bidra till felaktiga resultat.
Partisk inmatning är en ledande orsak till AI-hallucinationer. Det är ingen överraskning att alla AI- modeller som tränas på partiska eller bristfälliga datamängder med stor sannolikhet kommer att hallucinera fram mönster eller egenskaper som speglar partiskheten och bristfälligheterna. Manipuleras vissa AI-modeller avsiktligen för att generera förvrängda resultat? Absolut. Techföretag är med på noterna och försöker att ligga steget före dessa illvilliga bedragare. Men att stoppa partisk inmatning innan den börjat kommer att vara en fortgående kamp.
Över- och underanpassning spelar också en roll i att modeller hallucinerar. Överanpassning sker när en modell är alldeles för avancerad – när den lär sig detaljerna och bruset i träningsdata lite för bra. Avancerade modeller fungerar rätt så bra med deras träningsdata. Men de kan inte extrapolera så som de borde, så de här modellerna ger dåliga resultat med ny data. De är helt enkelt för anpassade till sin träningsdata för att kunna erbjuda pålitliga förutsägelser baserad på annan data.
Underanpassning är det motsatta – det händer när en modell är för enkel. Modeller som inte är tillräckligt avancerade kan inte upptäcka detaljer, mönster och relationer i träningsdata. Så modellerna presterar otillräckligt på både träningsdatan och all ny data den absorberar.
Ursäkta liknelsen, men tänk dig att en stor språkmodell arbetar som en avfallskomprimator. I princip vad som helst kan matas in i den, och det komprimeras upprepat för att göra plats för mer. Under den processen förloras detaljerna och finesserna i det som matas in i modellerna.
På grund av handlingen i populära filmer och tv-serier kan språkmodeller framstå som kapabla att tänka och resonera. Men det är de så klart inte. De förutser kort och gott möjliga svar till frågorna de ställs baserat på datan de har absorberat. Modellerna kan inte tillhandahålla svar som är 100% grundade i verkligheten hela tiden (åtminstone inte än, i alla fall).
Att hitta den optimala nivån av komplexitet för en stor språkmodell involverar anpassning av antalet funktioner, mängden träning modellen genomgår och antalet träningsexempel den tar emot.
Promptkonstruktion kan också påverka generativ AI:s utdata. Promptar som är detaljerade och exakta har betydligt högre sannolikhet att generera noggranna svar och resultat jämfört med vaga, motsägelsefulla eller svårförståeliga promptar. Att ge GenAI specifika riktlinjer eller parametrar i promptar kan på samma sätt bidra till bättre resultat. Man kan även hjälpa den att förbättra sitt fokus genom att ge kontext till frågor eller till och med att tilldela AI-verktyget en specifik roll eller ett visst perspektiv.
Effekten av AI- hallucinationer
AI-hallucinationer har uppenbara konsekvenser i den verkliga världen. Ta de följande exemplen från ett urval av branscher och användningsområden i beaktande:
- Då 2024 var ett valår i USA var också spridningen av missinformation från AI- hallucinationer ett hett debattämne runt om i världen. Funderar du över vad ledarna gör för att skydda noggrannhet och transparens? Här kan du läsa om hur OpenAI tog sig an val runt om i världen under 2024..
- Inom finanstjänster kan GenAI hjälpa till att spara pengar, förbättra beslut, minska risker och öka kundbelåtenhet. Nackdelen är dock att AI skulle kunna godkänna opassande sökande för kredit eller ett lån, vilket skulle skapa risker för finansiella förluster för institutionen. Medan vi en dag skulle kunna se AI-drivna rådgivande tjänster för investering är människor än så länge väldigt involverade i användandet av GenAI. Se till exempel hur Japan’s Daiwa Securities använder AI för att öka engagemanget hos kunder och få företaget att växa.
- Försäkringsbolag uppskattar den ökade hastigheten, effektiviteten och precisionen AI erbjuder. Men med användandet av AI kommer också potentiella etiska och legala problem, så som partiskhet eller diskriminering i modellerna och algoritmerna. Ta reda på hur AI omformar försäkringsbranschens framtid..
- Det finns ett överflöd av lovande användningsområden för GenAI inom hälso- och sjukvård samt life science. Men det kan också öppna portarna för snabb spridning av felaktiga diagnoser, falska patientjournaler och till och med falska bilder, inklusive röntgenbilder. Lär dig mer om generativ AI i händerna på bedragare inom Hälso- och sjukvården..
Framgång beror till stor del på att AI- modeller tränas på stora, mångfaldiga, balanserade och högkvalitativa datamängder. Det hjälper modeller att minimera partiskhet och generera mer rättvisa och noggranna resultat.
Att ta itu med och minska AI-hallucinationer
Utvecklare bakom ledande AI-system förstår att även den lägsta graden av hallucinationer är oacceptabel. Vad kan göras för att förbättra noggrannhet och förebygga AI- hallucinationer?
Framgång beror till stor del på att AI- modeller tränas på stora, mångfaldiga, balanserade och högkvalitativa datamängder. Det hjälper modeller att minimera partiskhet och generera mer rättvisa och noggranna resultat. Det är även viktigt att minska brus, då ofullständig data eller avvikelser i datan kan leda till AI-hallucinationer.
Även förstärkningsinlärning kan hjälpa till att motverka AI- hallucinationer. Både maskininlärning och mänsklig feedback kan träna AI- modeller till att fatta bättre beslut och producera mer noggranna resultat. Så om en chattbott ber dig att bedöma kvaliteten på dess svar eller rekommendation, gör det! Din feedback kommer att bidra till att förbättra modellen och det är ett av de bästa sätten människor kan hjälpa till att förbättra kvaliteten på GenAI:s utdata.
Skydd mot AI- hallucinationer
AI-hallucinationer och problemen de kan orsaka kan vara otroligt verkliga – och problemen kan påverka den verkliga världen. Stora språkmodeller må vara det som får AI-världen att snurra, men de måste användas ansvarsfullt för att förebygga AI- hallucinationer.
Med hotet av spridande missinformation hängande över oss tilltar försöken att hålla GenAI på banan och undvika AI- hallucinationer. Från Nvidia’s NeMo Guardrails till Guardrails AI med flera, att godkänna och bekräfta hur AI-modeller fungerar handlar numera om stora pengar.
Med tiden kommer GenAI-modeller att absorbera mer data och kontinuerligt förbättra sina utdata. Men tills allt AI-genererat innehåll är faktagranskat, noggrant och pålitligt spelar människor fortfarande en viktig roll i att försäkra att GenAI lever upp till allt det lovar.
Rapport om generativ AI: Läs resultaten
Vi frågade beslutsfattare om utmaningarna och möjligheterna de möttes av när de implementerade generativ AI. Lär dig från deras upplevelser och upptäck hur du kan identifiera den bästa affärsnyttan med GenAI för ditt företag.
Om författaren
Elaine Hamill är chefredaktör för Thought Leadership, Editorial och Content-teamet hos SAS. Hon är en livslång ordkonstnär med över 25 års erfarenhet av att skriva och redigera innehåll inom en mängd olika branscher, inklusive finans, handel, sjukvård, utbildning och teknologi.
Rekommenderad läsning
- Unlocking a strategic approach to data and AIAI is only as good as the data that powers it – this is a fundamental truth about data and AI that defines the limits of what’s possible with artificial intelligence. It may seem surprising, but it's rarely a bad algorithm or a bad learning model that causes AI failures. It's not the math or the science. More often, it's the quality of the data being used to answer the question.
- AI-oro: Lugn mitt i förändringenAI-oro är inget skämt. Vare sig du oroas av försvinnande jobb, förvrängd information eller risken att hamna bakom kan du besegra AI-oron genom att förstå den.
- 5 IoT applications retailers are using today The Internet of Things can bring big benefits, but what is IoT and how are retailers taking advantage of it?
Är du redo att prenumerera på Insights nu?