Разное Март 25, 2025
Китайская AI-компания DeepSeek втихую выложила новую языковую модель DeepSeek-V3-0324. Без громких пресс-релизов и фанфар — просто бах и 641 ГБ нейросетевого разума на Hugging Face.
Главный прикол: у модели MIT-лицензия, то есть можно бесплатно использовать в коммерческих проектах. Но еще интереснее, что DeepSeek-V3-0324 не требует дата-центра с мини-Чернобылем внутри. Ее можно запускать на обычном железе, например, на Mac Studio с M3 Ultra. AI-исследователь Awni Hannun протестировал: выдает 20+ токенов в секунду, и это при локальном запуске. Эй, OpenAI, зачем нам клауд, если можно вот так?
По тестам DeepSeek, новая версия делает всех, включая Claude Sonnet 3.5 от Anthropic в задачах, не связанных с логикой. А главное — бесплатна. Не подписка, не аренда мощности, а просто скачай и используй.
Как это работает? Архитектура Mixture-of-Experts (MoE): из 685 миллиардов параметров модель включает только 37 миллиардов за раз, не нагружая железо по полной. Плюс, новые технологии Multi-Head Latent Attention (MLA) и Multi-Token Prediction (MTP) — в переводе на человеческий: лучшее понимание контекста и более быстрый ответ.
Где взять? На Hugging Face, через API OpenRouter, в чате DeepSeek или через Hyperbolic Labs. Вопрос теперь один: сколько OpenAI и Google дадут китайцам на развитие перед тем, как начать их банить?