DeepSeek, ett kinesiskt AI-företag, har nyligen släppt en revolutionerande AI-modell kallad DeepSeek-R1. Modellen, som lanserades den 20 januari 2025, erbjuder högkvalitativa resonemangsfärdigheter till ett konkurrenskraftigt pris.
DeepSeek-R1 bygger på en innovativ Mixture of Experts (MoE)-arkitektur och använder en ren förstärkningsinlärningsbaserad metod. Detta möjliggör för modellen att:
- Prestera lika bra som eller bättre än OpenAI:s motsvarighet o1
- Vara cirka 95% billigare att träna och distribuera jämfört med o1
- Stödja variabla kontextlängder, inklusive långa kontexter
- Matcha OpenAI o1 Preview i kodningsuppgifter
”DeepSeek-R1 representerar ett betydande framsteg inom AI-resonemangsfärdigheter och genom att erbjuda jämförbar prestanda till en bråkdel av kostnaden utmanar vi etablerade slutna källkodsmodeller.”, säger en talesperson för företaget.
Modellen är tillgänglig under MIT-licens, vilket möjliggör fri användning för både akademiska och kommersiella ändamål. Detta öppnar upp för en bredare användargrupp att dra nytta av dess avancerade funktioner.
Du kan redan nu testa modellen här