AI-инструменты 7 апреля 2026 · 6 мин чтения

Как запустить нейросет Gemma 4 на телефоне — без интернета и облака

Google молча выкатила приложение, где Gemma 4 — нейросет уровня флагманов — работает прямо на вашем телефоне. Без серверов, без утечек данных, без подписок. Разбираем, что это такое, как установить на Android и iOS, и какие есть ограничения.

Что произошло

2 апреля 2026 года Google DeepMind выпустила Gemma 4 — семейство открытых языковых моделей под лицензией Apache 2.0. Это значит: бесплатно, с открытым доступом к весам, без привязки к облаку.

Вместе с моделями Google выкатила приложение Google AI Edge Gallery, которое доступно на Android и iOS. Через него можно скачать любую модель Gemma 4 и запустить её полностью локально, без подключения к интернету.

Что важно:

Линейка моделей Gemma 4: какую выбрать

Google выпустила четыре размера, но для телефонов актуальны два меньших:

Модель Тип Где работает Для чего
Gemma E2BEffective 2BТелефонБыстрый чат, тексты, простые задачи
Gemma E4BEffective 4BТелефон (от ~8GB RAM)Сложные рассуждения, анализ изображений
Gemma 26B MoEMixture of Experts, 4B активныхНоутбук (16GB+ RAM)Кодинг, мульти-агентные задачи
Gemma 31BDenseНоутбук/ПК (32GB+ RAM)Максимальное качество, фронт-уровень

Буква «E» означает «Effective» — эффективное количество параметров. Это MoE-модели (Mixture of Experts), которые активируют только часть весов при каждом запросе. Результат — качество модели с большим числом параметров при существенно меньших требованиях к памяти.

Как установить Gemma 4 на Android

  1. Скачайте Google AI Edge Gallery — приложение доступно в Google Play Store либо как APK с GitHub
  2. Откройте и разрешите доступ к хранилищу — приложению нужны права для загрузки моделей
  3. Выберите режим — «AI Chat» для общения, «Agent Skills» для мульти-шаговых сценариев
  4. Скачайте модель — выберите Gemma E2B (быстро, ~1.5 GB) или Gemma E4B (качественнее, ~3–4 GB)
  5. Готово — пишите запросы, модель обрабатывает их полностью на устройстве

Требования к Android-телефону

Модель Минимум RAM Размер файла Рекомендуемые устройства
E2B6 GB1.5 GBБольшинство Android от 2021+
E4B8 GB3–4 GBPixel 7+, Samsung S23+
26B MoE16 GB~10 GBНоутбук, не телефон
31B Dense32 GB~20 GBМощный ПК, не телефон

Телефоны с выделенным NPU (Qualcomm Snapdragon 8 Gen 2+ или Google Tensor) работают заметно быстрее — инференс идёт на нейропроцессоре, а не на CPU.

Установка через APK (если нет в Play Store)

Если приложение ещё не доступно в вашем регионе, установите как APK:

  1. Зайдите в Настройки → Приложения → Специальный доступ → Установка неизвестных приложений
  2. Разрешите браузеру (Chrome/Firefox) устанавливать приложения
  3. Откройте GitHub релизы Google AI Edge Gallery
  4. Скачайте последний .apk файл и установите

Как запустить Gemma 4 на iPhone (iOS)

Для iPhone приложение Google AI Edge Gallery доступно в App Store. Логика та же: скачали → выбрали модель → работаете офлайн.

Альтернативы для продвинутых пользователей:

Можно ли запустить Gemma 4 на ноутбуке

Да, и это даёт существенно больше возможностей. Три варианта:

Ollama — один командой

ollama run gemma4

Ollama автоматически скачает модель и запустит локальный API. На Apple Silicon работает из коробки с Metal-ускорением. Gemma 4 в Ollama впервые получила полноценную поддержку системного промпта и нативного мультимодального режима.

Google AI Edge Gallery + LiteRT-LM

Google также выпустил LiteRT-LM — SDK для разработчиков, которые хотят встроить Gemma 4 в свои мобильные приложения. Под капотом используется LiteRT (ранее TensorFlow Lite) и MediaPipe для оптимизации инференса на GPU/NPU.

Агентные навыки: что умеет Gemma 4 кроме чата

Это не просто «поговорить с чат-ботом». Google специально позиционирует Gemma 4 как модель для мульти-агентных рабочих потоков. Функция «Agent Skills» в Google AI Edge Gallery показывает несколько сценариев:

«Gemma 4 переопределяет то, что возможно на вашем собственном оборудовании. Теперь это не просто чат-бот, а платформа для агентов и автономных сценариев.» — Google DeepMind Blog, 2 апреля 2026

Gemma 4 на телефоне vs облачные модели: честное сравнение

Не всё так однозначно, давайте разберём объективно:

Параметр Gemma E4B (на телефоне) Облачные LLM (ChatGPT, Claude и др.)
Приватность✅ Данные не покидают устройство⚡ Запросы идут на сервер
Бесплатно✅ Навсегда, после скачивания❌ Подписка или по токенам
Работает без интернета✅ Полностью офлайн❌ Только с подключением
Скорость⚡ Зависит от телефона (3–15 сек)⚡ Обычно 5–20 сек
Качество кода⚡ Неплохо для простых задач✅ Значительно выше на сложных
Контекст⚡ ~8K токенов✅ 128K+ токенов
Языки✅ >140 языков✅ 100+

Когда Gemma 4 на телефоне — лучший выбор

Когда лучше остаться на облаке

Почему это важно

До Gemma 4 «локальный AI на телефоне» был либо демо-игрушкой с крошечными моделями, либо тяжёлой настройкой через командную строку. Google сделал три вещи:

  1. Выпустил модели фронт-качества в размерах, которые влезают в телефон (Effective 2B / 4B)
  2. Сделал приложение с установкой в пару кликов — не нужно знать Linux или Python
  3. Добавил агентные навыки прямо в локальный режим — модель не просто болтает, а работает с инструментами и внешними данными

Если вы ещё не работали с локальными нейросетями — рекомендую начать именно с этого. Скачайте Claude Code для серьёзного кодинга, а Gemma 4 установите на телефон как карманный AI-помощник, работающий всегда и везде. Подробнее о MCP-серверах и подключении AI к другим сервисам читайте в нашем блоге.

Настраиваем AI-агентов и автоматизацию под ваш бизнес

Локальный AI, облачный AI, мульти-агентные системы — разбираем всё. Пишите — обсудим задачу.

→ Написать в Telegram