Čínský startup DeepSeek bez okázalých oznámení vydal první velkou aktualizaci své revoluční modelové řady R1. Aktualizace R1-0528 se objevila na platformě Hugging Face ráno 29. května, čímž pokračovala v tradici „tichých“ vydání. Zatímco leden 2025 se zapsal do dějin průlomem DeepSeek R1 předčícího Meta a OpenAI v úvahových schopnostech při skromném rozpočtu, květnová aktualizace se soustředí na preciznost a dostupnost.
Hlavní změny se týkají tří oblastí. Za prvé, model je spolehlivější v komplexních logických úlohách. Například přesnost v testu AIME 2025 (matematické olympiády) vzrostla ze 70 % na 87,5 %. To znamená, že R1 nyní chybuje 2,5× méně při řešení nestandardních rovnic nebo důkazů teorémů. Za druhé, vývojáři snížili „halucinace“ o 45–50 % – případy, kdy AI poskytuje věrohodné, ale fakticky nesprávné informace při převyprávění nebo analýze textů. A za třetí, R1 nyní umí generovat JSON a podporuje funkční volání, což usnadňuje integraci modelu do obchodních nebo vědeckých aplikací.
„Hloubka úvah DeepSeek roste, matematika a kód jsou silnější a přibližuje se špičkovým modelům jako Gemini a O3,“ poznamenala Adina Yakhefu, výzkumnice Hugging Face.
Největším překvapením se však stala kompaktní varianta R1-0528-Qwen3-8B, schopná běžet na jedné grafické kartě jako RTX 3090. Tato „destilovaná“ verze vznikla na základě modelu Qwen3-8B od Alibaby, vylepšeného pomocí logických vzorců DeepSeek. Tento přístup umožnil zmenšit R1 20× bez katastrofální ztráty kvality: v matematických testech mini verze překonává Google Gemini 2.5 Flash a blíží se Microsoftu Phi 4. Pro vývojáře je to šance využívat výkonnou AI bez pronájmu serverových clusterů.
Jak se to projevuje v praxi? Uveďme dva testovací příklady. Při generování HTML kódu pro klon Instagramu R1-0528 prokázal plynulejší animace a přesnější rozložení než jeho předchůdce. A při plánování třídenního výletu po Indii se zaměřením na technologii a historii nový model navrhl ucelenou trasu Dillí–Ágra místo nesouvisejících měst, čímž uživateli ušetřil čas i peníze.
Přes pokrok si DeepSeek R1 zachovává omezení. Zaostává za OpenAI o3 a Gemini 2.5 Pro v rychlosti generování textu (31.9 tokenů za sekundu) a velikosti kontextu (130 tisíc tokenů). Jeho trumfy však zůstávají otevřenost (licence MIT) a cena: dotaz na API stojí 5–7× méně než u Clauda Sonnet nebo Gemini Pro. Na pozadí výroků šéfa Nvidie Jensena Huanga, že „USA mylně předpokládaly, že Čína nedokáže vytvářet AI čipy“, úspěchy DeepSeek působí jako odpověď na sankce. Tým již pracuje na R2, ale květnová aktualizace zatím upevňuje pozici R1 jako nejdostupnějšího „těžkého váhovéhopro úlohy, kde záleží na logice, nikoli rychlosti.