close
📊 Подписались на наш телеграм
Этот блок увидели 98% читателей.
Из них 56% подписались на наш Telegram.
А ты?
* Подпишись и будь в курсе актуальных новостей

Apple представила Foundation Models и новые ИИ-модели: всё бесплатно, приватно, но не без но

 Apple   Июнь 10, 2025

Apple представила Foundation Models и новые ИИ-модели: всё бесплатно, приватно, но не без но

На WWDC 2025 Apple выкатили обновления по теме Apple Intelligence — и для разработчиков, и для простых смертных. Главный анонс — фреймворк Foundation Models, который позволяет встраивать ИИ-функции прямо в приложения.

Работают они офлайн, не сливают данные в облако и при этом… бесплатны. Да-да, Apple и слово "бесплатно" в одном предложении — мир точно меняется.

Эта система построена на собственных ИИ-моделях Apple, а не на каких-то там OpenAI или Google. Причём Apple выкатили и новое поколение языковых моделей, которые, по их словам:

  • стали быстрее и энергоэффективнее;

  • лучше справляются с инструментами и логикой;

  • поддерживают мультимодальность (текст + изображение);

  • работают сразу с 15 языками.

Что под капотом?

Apple Intelligence теперь включает две базовые модели:

  1. 3B-модель, которая запускается прямо на устройстве — благодаря Apple Silicon.

  2. Серверная модель с Mixture-of-Experts, которая работает через Private Cloud Compute (ага, такое облако, но приватное, обещают).

Но не спеши радоваться — 3B-модель на устройстве — не чат-бот. Она не для болтовни, а для задач вроде:

  • кратких диалогов,

  • суммаризации,

  • извлечения сущностей,

  • понимания и улучшения текста,

  • генерации контента по мелочи.

А насколько они вообще хороши?

Apple не стала меряться результатами по открытым бенчмаркам — вместо этого показала свои внутренние тесты (угу, верим на слово). По этим данным:

  • их on-device 3B-модель показывает себя неплохо — лучше, чем Qwen-2.5-3B, и на уровне с Qwen-3-4B и Gemma-3-4B (по английскому).

  • серверная модель чуть лучше Llama-4-Scout, но уступает Qwen-3-235B и GPT-4o.

Если подключить картинки:

  • on-device модель обходит InternVL и Qwen, и почти догоняет Gemma.

  • серверная — лучше Qwen-2.5-VL, но слабее Llama-4-Scout и GPT-4o.

Что это всё значит?

Apple, конечно, бодро заявляет, что всё хорошо, но на деле их модели пока что не дотягивают до лидеров. Особенно если сравнивать с GPT-4o или Gemini 2.5 Pro — Apple тут пока выглядит как крепкий середнячок с амбициями.

Скорее всего, Apple выбрала именно такие модели для сравнения, чтобы на фоне не самых топовых конкурентов выглядеть достойно. Но как только в кадре появятся новейшие O-серии от OpenAI или топовые Gemini от Google — станет ясно, что разрыв по-прежнему велик.

Так что вопрос на будущее: сможет ли Apple догнать лидеров на своём собственном ИИ-двигателе — или всё это просто пролог к интеграции чужих решений под соусом "инноваций из Купертино"?

Авторские права © 2025 K-Tech News. Все права защищены.