For lidt over et år siden vi udgiver Her i LXA en artikel om hallucinationer af Kunstig intelligens. De er en fare, hvis vi forstår dette som spildtid eller det faktum, at vi kan stå tilbage med falsk information. Når vi spørger dem om noget, de ikke kan få fra en database hurtigt, kan de svare på hvad som helst, og det har ikke gjort mig meget bedre i 2025, som vi allerede er godt i gang med.
Det er for nylig blevet populært DeepSeek, en kunstig intelligens, der kommer til os fra Kina, og som kan tilbyde resultater svarende til ChatGPT eller endda forbedre dem. Men det bedste af disse AI opnås, hvis vi aktiverer mulighederne for tænke dybere, fornuft eller hvad de nu har kaldt det i den pågældende model. Ellers har de alle en tendens til at fejle det samme: at reagere hurtigt, uanset om det de siger er korrekt eller ej.
Nye hallucinationer af kunstig intelligens
Fra tid til anden bruger jeg lidt tid på at lege med Mit Steam Deck. Jeg afsluttede for nylig grundspillet i Borderlands The Presequel, og jeg forstod ikke helt slutningen (spoiler alert): Lilith slår Handsome Jack... hvor kom Lilith fra? Jeg spurgte ChatGPT, og jeg kan ikke engang huske, hvad han fortalte mig. Hvis jeg husker det, huskede jeg, undskyld redundansen, på egen hånd, at jeg jagtede vores spiller ved at bruge hans usynlighed. Så fortsatte jeg, Handsome Jack havde hængsler i ansigtet, og han kunne ikke fortælle mig, at det var en maske.
Men det værste var, da jeg spurgte ham, hvor jeg skulle hen for at spille Claptrap Voyage-udvidelsen. Hvad ser du her, hvad ser du der, hvad... Mens jeg søgte på internettet fandt jeg ud af, at jeg skulle til etage 13/2 eller sådan noget (jeg kan ikke huske navnet nu), noget vi kan gøre fra en hurtig tur.
For at have mere grundlag for denne artikel, tænkte jeg på at spørge ChatGPT om det samme, men med begrundelse, noget jeg også har gjort i DeepSeek. DeepSeek fik det rigtigt i første forsøg, mens ChatGPT gav mig to muligheder, den ene korrekt og den anden afviste, at der er en udvidelse i The Presequel relateret til Claptrap. Jeg valgte den mulighed for at se, om det ville løse det ... men nej.
Vil du have præcision?
ChatGPT er den mest populære lige nu, og hvad de fleste bruger. Hvis vi vil have det til at ræsonnere, er vi nødt til at stå over for to problemer: det første er, at det tager 20-40'ere at begynde at tilbyde svaret, og det andet er, at gratis ræsonnement kun er muligt et par gange om dagen; Når en grænse overskrides, virker de ikke længere, og vi er tvunget til at bruge en betalt model. Udover, DeepSeek Han kan altid ræsonnere, men nogle gange sidder han fast og virker ikke.
Så enten betaler vi, eller også venter vi, eller også er vi heldige.
Alligevel er hallucinationer om kunstig intelligens stadig dagens orden, og jeg synes, det er værd at huske dette for at forhindre nogen i at tage den information, de giver os, for givet.
Hvad hvis vi søger?
Det, der kan være umagen værd, er ikke at lade standardmodellen reagere på os. Han er den, der fejler mest, mest "cuñao", altså den, der svarer mest for at svare, om han kender svaret eller ej. Disse modeller giver svar på, hvad de har lært, og hvis de ikke har lært det, forsøger de at løse vores tvivl ved at skabe relationer, der normalt ikke giver gode resultater. Tingene ændrer sig, hvis vi trykker på søge- eller ræsonnement-knapper.
Hvis vi beder ham om at søge, er det, hvad han vil gøre. Den vil analysere, hvad den finder og vise os et resultat, som vi kunne se som et resumé af en søgning, vi ville gøre. Muligheden for at ræsonnere vil forhindre dig i at sige det første sludder, der kommer til at tænke på, selvom ChatGPT nogle gange kan gøre tingene værre.
Kunstig intelligens bliver ved med at blive bedre, men hvis vi ikke gør god brug af den, vil den også blive ved med at forvirre os mere, end den hjælper os.