close
📊 Подписались на наш телеграм
Этот блок увидели 98% читателей.
Из них 56% подписались на наш Telegram.
А ты?
* Подпишись и будь в курсе актуальных новостей

Gemma 3n: новый локальный ИИ от Google, который работает без интернета и серверов

 Новости   Май 21, 2025

Gemma 3n: новый локальный ИИ от Google, который работает без интернета и серверов

Миниатюрная LLM-модель от Google запускается прямо на вашем устройстве, обрабатывает текст, звук и изображение — и не отправляет ни байта в облако.

На конференции Google I/O 2025 поисковый гигант показал не только обновлённый Gemini Flash 2.5, но и куда более радикальную штуку — Gemma 3n. Это локальная языковая модель, которая работает прямо на вашем устройстве, без интернета, серверов и страха, что кто-то подглядывает за вашими промптами.

Что такое Gemma 3n?

Gemma 3n — это компактная LLM, разработанная Google с расчётом на персональные устройства. Она создана в двух конфигурациях: 5B и 8B параметров, но благодаря новой технологии от DeepMind под названием Per-Layer Embeddings (PLE), модель потребляет памяти как 2B и 4B, соответственно. Иными словами, она может работать на 2–3 ГБ оперативки, что делает её доступной даже для смартфонов среднего класса.

Чем она отличается?

  • Работает локально. Никаких серверов. Все запросы обрабатываются прямо на устройстве. Это означает не только приватность, но и полную автономность — интернет не нужен.

  • Быстрая реакция. Используются технологии PLE, KVC sharing и улучшенная квантовка активаций, благодаря чему модель работает в 1.5 раза быстрее, чем предыдущая версия Gemma 3 4B.

  • Мультимодальность. Понимает текст, изображения, аудио и даже видео. Может транскрибировать, переводить, комбинировать разные типы данных — и всё это без выхода в сеть.

  • Динамическая адаптация. Под капотом — технология mix’n’match, которая позволяет Gemma 3n собирать субмодели под конкретные задачи. Грубо говоря, она перестраивается на ходу под ваш сценарий использования.

  • Многоязычность. Улучшенная поддержка японского, немецкого, корейского, испанского и французского языков. В бенчмарке WMT24++ модель показала 50.1%, что для локального решения впечатляет.

Как использовать?

Поиграться с Gemma 3n можно уже сейчас прямо в браузере через Google AI Studio, без всякой установки. А разработчики могут интегрировать модель локально через Google AI Edge, получив генерацию текста и изображений прямо на устройстве.

Вопрос теперь один: если такой ИИ может жить в твоём телефоне, зачем нам были все эти облака?

Авторские права © 2025 K-Tech News. Все права защищены.