Hva er så revolusjonerende med DeepSeek?

Avatar photo
Helge Lurås
Ansvarlig redaktør
Publisert 28. januar 2025 | 11:17

Akskjemarkedene har rast. Donald Trump har kommentert nyheter. Mediene er fulle av snakk om DeepSeek. Men hva er det egentlig, og hva er nytt?

Den nye kunstige intelligensmodellen DeepSeek hevdes å være på nivå med ChatGPT, er utviklet til en brøkdel av kostnadene, noe som har skapt bekymring blant amerikanske teknologiselskaper.

Angivelt har DeepSeek bare brukt omlag 5,6 millioner dollar på utviklingen av modellen.

Forrige uke annonserte Trump et nytt partnerskap mellom OpenAI, Oracle og SoftBank, kalt Stargate, som planlegger investeringer på opptil 500 milliarder dollar i kunstig intelligens. Dette inkluderer bygging av datasentre og energiproduksjon i Texas, med en startinvestering på 100 milliarder dollar.

DeepSeek, som har utviklet chatboten R1, utfordrer giganter som OpenAI, Google og Meta. Også Elon Musk er igang med sin xAI-modell med et gigantisk datasenter.

Trump uttalte at DeepSeek demonstrerer hvordan avansert teknologi kan utvikles med færre ressurser, noe som utfordrer USAs ledende posisjon innen kunstig intelligens.

«Lanseringen av DeepSeek burde være en vekker for våre industrier. Vi må skjerpe oss og være konkurransedyktige,» sa Trump.

Han la til at den kinesiske modellen representerer en fordel ved å senke kostnadene for AI-utvikling.

DeepSeek har allerede overgått ChatGPT i antall nedlastinger fra Apples App Store. Ppgangen er så stor at det nå er problemer med å opprette nye brukerkontoer.

I forrige uke publiserte DeepSeek er forskningspaper om modellen. iNyheter har kjørt DeepSeeks egen beskrivelse gjennom «konkurrenten» Open AIs ChatGPT 4.0

Instruksjonen vi ga var følgende: «Kan du ut fra beskrivelsen i artikkelen fortelle på hvilken måte DeepSeeks modell og fremgangsmåte skiller seg fra den måten du (Open AI) gjør det

Svaret var som følger:

DeepSeek-R1 skiller seg fra OpenAIs fremgangsmåte på flere nøkkelområder, særlig i hvordan modellene trenes og utvikles. Her er de viktigste forskjellene:

1. Ren forsterkningslæring (RL) uten forhåndstrening med menneskelig data

  • DeepSeek: Modellen DeepSeek-R1-Zero utviklet resonnementsevner gjennom ren forsterkningslæring (reinforcement learning) uten noen form for supervisert finjustering (supervised fine-tuning) i begynnelsen. Dette innebærer at modellen startet fra en grunnmodell og utviklet avanserte problemløsningsstrategier gjennom selv-evaluering og tilbakemelding i treningsprosessen.
  • OpenAI (GPT): OpenAI bruker typisk en kombinasjon av pre-trening med store mengder menneskeskapt tekstdata og deretter supervisert finjustering (SFT) for å lære spesifikke ferdigheter eller tilpasse modellen til menneskelige preferanser. Dette blir ofte fulgt av forsterkningslæring fra menneskelig tilbakemelding (RLHF) for å forbedre modellens svar på en mer brukervennlig måte.

2. Selv-evolusjon og «aha»-momenter

  • DeepSeek: DeepSeek-R1-Zero opplevde selv-evolusjon der modellen naturlig oppdaget effektive resonnementsmønstre og utviklet «aha»-momenter gjennom trening. Dette ble oppnådd uten eksterne tilpasninger, og forskerne observerte at modellen selv begynte å bruke lengre tid på komplekse oppgaver for å forbedre nøyaktigheten.
  • OpenAI: GPT-modellene er designet for å produsere kjeder av tanker (Chain of Thought, CoT) som er forhåndstrent eller finjustert for resonnement. Selv om GPT-modellene også forbedres gjennom iterativ trening og menneskelig tilbakemelding, er slike selv-evolusjonsfenomener som hos DeepSeek-R1 mindre eksplisitte.

3. Tilgjengelighet og åpenhet

  • DeepSeek: Modellen og dens distillerte versjoner (mindre modeller) er gjort tilgjengelig som åpen kildekode. Dette gir forskere og utviklere over hele verden muligheten til å bruke, modifisere og bygge videre på teknologien.
  • OpenAI: OpenAIs GPT-modeller er hovedsakelig kommersielle og ikke fullt ut tilgjengelige som åpen kildekode. OpenAI tilbyr API-tilgang, men begrenser innsyn i de fullstendige treningsmetodene og datasettene av sikkerhets- og konkurransehensyn.

4. Datahåndtering

  • DeepSeek: Bruker en kaldstarttilnærming med et lite, kuratert sett med spesiallagde treningsdata for å forbedre modellen tidlig i treningsprosessen (for eksempel lange kjeder av resonnement). Etterpå utføres forsterkningslæring for alle scenarier med fokus på resonnement.
  • OpenAI: GPT-modellene er trent på store, generelle datasett uten en spesifikk kaldstartmetodikk. Forsterkningslæring brukes hovedsakelig til finjustering etter hovedtreningen.

5. Distillasjon til mindre modeller

  • DeepSeek: En stor del av arbeidet fokuserer på å distillere de avanserte resonnementsegenskapene fra hovedmodellen DeepSeek-R1 til mindre modeller (f.eks. 7B og 14B-parametermodeller). Dette muliggjør bruken av avansert AI i miljøer med mindre ressurser.
  • OpenAI: Selv om OpenAI har utviklet mindre versjoner av sine modeller (som GPT-3.5 turbo), er det ikke kjent at de systematisk distillerer resonnementsegenskaper fra store modeller til mindre, med fokus heller på ytelseoptimalisering.

Oppsummert:

DeepSeek-R1s unike fokus på ren forsterkningslæring, selv-evolusjon, og åpen kildekode skiller seg betydelig fra OpenAIs kombinasjon av forh\u00e5ndstrening, supervisert finjustering, og forsterkningsring. Begge metodene har sine styrker, men DeepSeek har utforsket en mer autonom vei til kunstig intelligens, mens OpenAI prioriterer menneskelig tilbakemelding og generell anvendelighet.

iNyheter trenger din støtte. Tegn abonnement eller støtt oss på Vipps 763291 bank 1506.80.92768 eller PayPal

Trumps første dager: Utrenskninger (+)

mest lest