close
📊 Подписались на наш телеграм
Этот блок увидели 98% читателей.
Из них 56% подписались на наш Telegram.
А ты?
* Подпишись и будь в курсе актуальных новостей

DeepSeek снова выстрелил: китайская R1-0528 уже уделывает Grok и Gemini

 Новости   Май 29, 2025

DeepSeek снова выстрелил: китайская R1-0528 уже уделывает Grok и Gemini

Обновлённая DeepSeek R1-0528 показывает выдающиеся способности к программированию и глубокой аргументации — всё это с минимальными затратами и в открытом доступе. Разбираем, в чём секрет новой звезды AI-сцены.

Пока OpenAI гоняется за мемами и поглощениями, а Grok устраивает вечеринки в X, в Китае quietly происходит настоящая революция. DeepSeek — малоизвестный стартап, который в начале года внезапно выкатил R1, открытую и бесплатную reasoning-модель, неожиданно сравнимую по качеству с топами от OpenAI, Anthropic и Google.

Теперь они обновились: встречайте DeepSeek R1-0528 — первую крупную итерацию, которая уже доступна на Hugging Face. Официальных бенчмарков пока нет, но комьюнити не ждёт — и уже делится впечатлениями.

R1-0528 уже в топах по коду

По данным LiveCodeBench — авторитетного теста на кодинг-способности LLM — новая версия заняла 4-е место. Причём обошла такие модели, как:

  • o4 Mini (Low),

  • Grok-3-mini (High),

  • Gemini 2.5 Flash Preview.

Пользователи отмечают: R1-0528 не просто генерирует код, она понимает задачу, собирает логику, а потом выдаёт чистое, рабочее решение с тестами — с первого раза.

"R1-0528 чувствуется... осознанной"

Один из пользователей X, @chetaslua, утверждает, что новая версия "размышляет как модели Google" и может удерживать внимание на одной задаче до 30–60 минут. Появился некий "стиль мышления", а текст стал более выверенным, естественным и логичным.

Что нового в DeepSeek R1-0528:

  • Глубокие рассуждения (в духе Gemini)

  • Улучшенное письмо — меньше воды, больше смысла

  • Уникальная логика — не просто угадывает, а размышляет

  • Долгие сессии — AI не бросает задачу спустя 10 шагов

В чём секрет?

DeepSeek не использует гигантские дата-центры. Они пошли по пути оптимизации:

  • архитектура Mixture-of-Experts (MoE), где активны только нужные блоки;

  • сжатие параметров без потери точности;

  • multi-token prediction — предсказание нескольких токенов сразу;

  • и главное — обучение с приоритетом на reinforcement learning, что формирует "привычки мышления", а не просто запоминание паттернов.

Итог: пока гиганты спорят, кто из них гигант, DeepSeek просто работает.

На фоне бесконечных анонсов и маркетинга, китайская R1-0528 выглядит почти киберпанковской: тихая, быстрая, точная. Не хайпом единым жив AI — иногда лучший код пишется в тени.

Авторские права © 2025 K-Tech News. Все права защищены.