DeepSeek-V3.2: den kinesiske model, der vil konkurrere med GPT-5 og Gemini-3 Pro

  • DeepSeek lancerer DeepSeek-V3.2 og V3.2-Speciale med ambitionen om at konkurrere med GPT-5 og Gemini-3 Pro inden for avanceret ræsonnement.
  • Modellen integrerer "tænketilstanden" direkte i brugen af ​​eksterne værktøjer og understøtter kontekster pÃ¥ op til 128.000 tokens.
  • V3.2-Speciale udmærker sig i matematik og datalogi med præstationer pÃ¥ guldmedaljeniveau ved internationale olympiader.
  • Virksomheden offentliggør vægte og en teknisk rapport, der forstærker kampen mellem Kina, Europa og USA om lederskab inden for Ã¥ben AI.

DeepSeek-V3.2

Det kinesiske firma DeepSeek har taget endnu et skridt i det globale kapløb om kunstig intelligens. når man annoncerer DeepSeek-V3.2 og dens variant V3.2-SpecialeDisse to open source-modeller er rettet direkte mod den øvre ende af markedet. Virksomheden hævder, at deres ræsonnementssystem er sammenligneligt med førende benchmarks som GPT-5 og Gemini-3 Pro, hvilket lægger pres på de amerikanske giganter i en tid med intens teknologisk konkurrence.

I Europa, hvor debatter om Ansvarlig AI, regulering og teknologisk suverænitet Disse tendenser er almindelige, og DeepSeeks træk er ikke gået ubemærket hen. Det faktum, at et kinesisk laboratorium har offentliggjort vægte, detaljeret teknisk dokumentation og en avanceret ræsonnementsmodel i open source, forstærker følelsen af, at open source-økosystemet genvinder styrke mod fuldstændig proprietære løsninger, noget der kunne være særligt interessant for europæiske universiteter, forskningscentre og tech-SMV'er.

DeepSeek-V3.2: ræsonnement på niveau med førende modeller

Den Hangzhou-baserede startup har præsenteret DeepSeek-V3.2 som den endelige og stabile version af dens ræsonnementsmodeller, der erstatter den eksperimentelle udgave, der blev udgivet uger tidligere. Ifølge virksomheden selv, V3.2 opnår en ydeevne svarende til GPT-5's i forskellige Benchmarks publikum med flertrinsræsonnement og tænkning, og er placeret lidt under Gemini-3.0 Pro i nogle benchmarktests.

Denne model kombinerer Menneskelig ræsonnement med evnen til at bruge eksterne værktøjersåsom websøgemaskiner, lommeregnere, kodeudførelsesmiljøer eller tredjepartssystemer som Claude Code. Ideen er, at systemet ikke kun genererer tekst, men også kan planlægge, forespørge på ressourcer, udføre funktioner og derefter integrere disse resultater i et mere komplet svar uden at kræve konstant overvågning.

DeepSeek har fremhævet, at modellen tilbyder to interaktionsmåder med værktøjerEn med synlig ræsonnement, hvor brugeren kan følge de mellemliggende trin, og en anden uden at vise tankeprocessen. I begge tilfælde er "Ræsonnementshukommelse" fortsætter midt i opkald til værktøjer inden for den samme samtale og genstarter kun, når der ankommer en ny besked fra brugeren, hvilket er særligt nyttigt til lange opgaver eller agentlignende flows.

"Tænke"-tilstanden integreret i brugen af ​​værktøjer

En af de mest slående nye funktioner i DeepSeek-V3.2 er Direkte integration af tænkemåden i brugen af ​​værktøjerSelvom den ræsonnerer, kan modellen sende forespørgsler til søgemaskinen, aktivere en lommeregner, udføre kode eller interagere med andre tjenester ved at kombinere cyklusser af intern analyse og eksterne kald for at forsøge at give svar. mere detaljeret og præcis når opgaven kræver det.

Ifølge virksomheden gør denne tilgang V3.2 til sin første model, der er i stand til at ræsonnere og bruge værktøjer indbyggetbåde i standardtilstand og i intensiv tænkningstilstand. Det er en klar forpligtelse til det, der kaldes agentbaserede arbejdsgangeI disse tilfælde besvarer AI ikke blot et enkelt spørgsmål, men fungerer som en autonom agent, der nedbryder problemet, søger efter information, beregner og derefter kombinerer alt til en sammenhængende løsning.

DeepSeek understreger også, at modellen er bredt tilgængelig: DeepSeek-V3.2 kan bruges via web, app og APIDette letter integrationen i produkter, virtuelle assistenter eller forretningsværktøjer, herunder projekter udviklet i Europa. For europæiske udviklermiljøer og virksomheder, der søger åbne alternativer, er muligheden for at udforske og tilpasse modellen uden at være afhængig af en enkelt større platform en betydelig fordel.

DeepSeek Sparse Attention (DSA) arkitektur og computereffektivitet

På et teknisk niveau er kernen i DeepSeek-V3.2 DeepSeek Sparse Attention (DSA), en opmærksomhedsmekanisme designet til at håndtere meget lange sekvenser, samtidig med at beregningsomkostningerne reduceres. DeepSeek har afsløret et parallelt filsystem, der er optimeret til AI. hvilket supplerer dens indsats inden for effektivitet og implementering. Modellen har omkring 671.000 milliarder parametre i altmen ved hvert inferenstrin aktiveres de kun omkring 37.000 milliarder parametre pr. tokenDette gør det muligt at opretholde kapaciteten uden at øge ressourceforbruget.

Denne distribuerede arkitektur gør det muligt at arbejde med kontekstvinduer på op til 128.000 tokens I produktion er denne størrelse særligt nyttig til at analysere omfattende dokumenter, akademisk forskning eller gennemgå store mængder juridisk og teknisk information – områder af stor interesse for europæiske institutioner. Ifølge data leveret af virksomheden, DSA reducerer omkostningerne ved inferens med cirka halvdelen i sammenligning med en tidligere tæt arkitektur i lange kontekster.

For organisationer i Spanien og resten af ​​EU, der står over for budgetbegrænsninger inden for it-sektoren, er dette effektivitetsforbedring Det åbner døren for at eksperimentere med meget avancerede modeller uden behov for den dyre infrastruktur, der anvendes af store amerikanske teknologivirksomheder. Alligevel erkender DeepSeek, at de stadig har plads til forbedring i forhold til konkurrenterne inden for tokeneffektivitet og bredden af ​​verdensviden, to nøgleområder for storstilede implementeringer.

DeepSeek-V3.2 med intensiv forstærkning ved hjælp af RL og syntetiske data for agenter

Ud over arkitekturen insisterer DeepSeek på, at en stor del af springet i ræsonnement kommer fra en massiv eftertræning gennem reinforcement learning (RL)Virksomheden har afsat mere end 10% af den samlede beregning før træning kun i denne fase en usædvanlig procentdel i sektoren med det formål at styrke modellens evne til at rette fejl, ræsonnere i dybden, bruge værktøjer og agere i interaktive miljøer.

Holdet har bygget en komplekst syntetisk dataøkosystem som omfatter mere end 1.800 træningsmiljøer og omkring 85.000 avancerede instruktioner specifikt for agenter. Disse opgaver omfatter søgninger i den virkelige verden, dynamiske simuleringer, kodeudførelse, sammenkædede problemer og automatisk genererede og verificerede scenarier for at minimere fejl i datasættet.

Denne tilgang er rettet mod at skabe AI-agenter, der er i stand til at operere med en vis grad af autonomiAnalyse af information, beslutningstagning og håndtering i flertrinsarbejdsgange. For europæiske virksomheder, der udforsker automatisering af komplekse processer – fra finansiel analyse til avanceret teknisk support – kan disse fremskridt være særligt attraktive, selvom det stadig er uvist, hvordan modellerne vil præstere uden for kontrollerede testmiljøer.

DeepSeek-V3.2-Speciale: matematik, datalogi og udvidet tænkning

Ved siden af ​​generalistmodellen har DeepSeek lanceret DeepSeek-V3.2-Speciale, en variant rettet mod avanceret kalkulus, matematiske beviser og udvidede tankeprocesserVirksomheden hævder, at denne version er på niveau med Gemini-3 Pro Googles præstation i komplekse ræsonnementsopgaver, og at dens præstation nærmer sig guldmedaljeresultater i internationale konkurrencer.

Specifikt ville Speciale have nået niveauer sammenlignelige med guldmedaljer i Den Internationale Matematiske Olympiade (IMO), International Olympiade i Informatik (IOI), The ICPC Verdensfinaler og den kinesiske matematiske olympiade. Derudover integrerer den evner afledt af modellen DeepSeek-Math-V2, der specialiserer sig i at bevise teoremer og løse meget vanskelige problemer, hvilket styrker dets position inden for segmentet af modeller til videnskabelig og teknisk forskning.

I modsætning til standardversionen, DeepSeek-V3.2-Speciale er ikke gearet til hverdagsopgaver heller ikke til generalistiske integrationer med værktøjer. Virksomheden understreger, at dette er en model, der primært er designet til forskning og akademisk arbejde, med et forbrug på poletter overlegen, så for nu Det tilbydes kun via API og ikke gennem generelle anvendelser.

Tilgængelighed af DeepSeek-V3.2, blænde og kontrast hos de amerikanske giganter

DeepSeek har udgivet de fulde DeepSeek-V3.2-vægte og en detaljeret teknisk rapport vedrørende deres uddannelse, noget der står i kontrast til de stadig mere restriktive politikker hos nogle store amerikanske teknologivirksomheder, som ofte begrænser adgangen til koden eller størrelsen på deres mest avancerede modeller. Selv i tilfælde af open source Delvis, ligesom nogle versioner af Llama, kommer åbningen med specifikke betingelser og nuancer.

I europæisk sammenhæng er denne grad af gennemsigtighed og åbenhed Dette kan være nøglen til projekter, der kræver revisionsevne, overholdelse af lovgivningen eller evnen til at tilpasse modeller til lovgivningsmæssige rammer som f.eks. Den Europæiske Unions lov om kunstig intelligensUniversiteter, forskningscentre og offentlige forvaltninger kan studere modellen mere detaljeret, replikere eksperimenter eller endda tilpasse dele til deres egne behov uden at være fuldstændig afhængige af en lukket ekstern API.

Virksomheden har lagt DeepSeek-V3.2 er tilgængelig for fællesskabet på platforme som Hugging Face og ModelScopeUdover at tilbyde adgang via API er Speciale-varianten derimod i øjeblikket begrænset til forbrug via en programmatisk grænseflade på grund af dens højere beregningskrav og pris pr. tokenDenne blandede distributionsstrategi passer med mange europæiske aktørers interesse i at have robuste forskningsmodeller, selvom deres kommercielle implementering kan kræve mere omhyggelig planlægning.

Kinas rolle i det globale AI-kapløb

Udgivelsen af ​​DeepSeek-V3.2 kommer på et tidspunkt, hvor Kina ønsker at styrke sin lederskab inden for AI Trods restriktioner på adgangen til avancerede halvledere og voksende geopolitiske spændinger er DeepSeek blevet et af de mest omtalte navne i det kinesiske økosystem, efter at det brød igennem tidligere på året med en model, der overraskede alle med sit forhold mellem strøm og omkostninger, og nu fordobler det sin satsning med agent- og ræsonnementskapaciteter på højt niveau.

For Europa, hvor diskussionen centrerer sig om, hvordan man skaber balance innovation, databeskyttelse og sikkerhedDenne type udvikling præsenterer både muligheder og udfordringer. På den ene side udvider eksistensen af ​​åbne modeller med høj kapacitet fra Kina udvalget af værktøjer, der er tilgængelige for europæiske laboratorier og virksomheder. På den anden side opstår der spørgsmål vedrørende kompatibilitet med lokale bestemmelser, grænseoverskridende datastrømme og virkningen af indholdsregler i Kina, hvilket nogle eksperter anser for at være en mulig hindring for den fulde internationale udvidelse af disse systemer.

DeepSeek har også fået synlighed uden for sit hjemmemarked, efter at deres V3.1-model deltog i automatiserede investeringseksperimenter sammenlignet med systemer som GPT-5 og Gemini 2.5 Pro, hvor den viste konkurrencedygtige resultater. Denne strategi suppleres af lanceringen af ​​andre modeller som f.eks. DeepSeek-OCR, der sigter mod at komprimere tekst gennem visuel opfattelse og bearbejde den med færre ressourcer, hvilket styrker virksomhedens image som en aktør med fokus på effektivitet og open source.

Forventninger, begrænsninger og næste skridt

Trods virksomhedens påstande erkender DeepSeek, at V3.2 halter stadig bagefter nogle af sine amerikanske modparter i aspekter som generel verdenskendskab, forståelse af brede kulturelle kontekster eller effektivitet i brugen af ​​tokens. Desuden indrømmer projektlederne selv, at sammenligninger baseret på offentlige benchmarks De afspejler ikke altid den faktiske ydeevne i produktionsmiljøer, især i åbne opgaver og med slutbrugere.

Et andet punkt at overveje er, at integration af værktøjer i ræsonnementstilstand Det skal stadig grundigt valideres i komplekse, virkelige anvendelsesscenarier, fra sundhedspleje til økonomisk eller juridisk beslutningstagning. De beregningsmæssige omkostningsbesparelser, som DSA tilbyder, er betydelige, men de kan blive overskygget, hvis kvaliteten af ​​svarene ikke opretholdes konsekvent, når opgaver bliver mere tvetydige eller kræver meget specifikke kontekster.

Med ankomsten af ​​DeepSeek-V3.2 og dens Speciale-variant får landskabet for avanceret ræsonnement-AI en ny spiller med globale ambitioner, der satser på åbne modeller, integrerede værktøjer og begrænsede omkostningerDisse udviklinger udvider viften af ​​muligheder inden for forskning, erhvervsliv og offentlig forvaltning, samtidig med at de tvinger til en gentænkning af, hvordan den hurtige udvikling af kunstig intelligens kan passes ind i en krævende lovgivningsmæssig ramme og en stadig mere udpræget konkurrence mellem teknologiske blokke.

DeepSeek
relateret artikel:
DeepSeek, ChatGPT har en anden konkurrent, der kommer fra Kina og måske endda overgår den