Цифровые Отморозки
AI-новости

Apple и Siri: внутри новый Gemini стоимостью $1 млрд в год

12 апреля 2026 7 мин чтения Автор: НейроКонтент

Apple заключила сделку с Google: Siri теперь работает на Gemini. Компания платит $1 млрд в год за доступ к модели в 8 раз мощнее собственных разработок. Разбираем, что это меняет для пользователей iPhone и какие последствия для бизнеса.

Что произошло: Apple выбирает Gemini для Siri

В январе 2026 года Apple официально объявила о партнёрстве с Google: Siri переходит на базовую модель Gemini 2.5 Pro. Это не косметическое обновление — это смена движка. Apple, которая десятилетиями гордилась собственными технологиями, признала: в AI-гонке выгоднее купить лидерство, чем строить самому.

Ключевая цифра: $1 млрд в год — столько Apple платит Google за лицензию на Gemini. Для сравнения: именно такую сумму Google платит Apple за статус поисковика по умолчанию в Safari. Теперь деньги идут в обратном направлении.

Модель, которую Google передаёт Apple, насчитывает 1,2 триллиона параметров — в 8 раз больше, чем Apple Intelligence на базе собственных моделей. Это объясняет и мощь новых возможностей, и ценник сделки.

Как это работает технически: Apple не доверяет Google ваши данные

Главный вопрос, который задают все: «Значит, Google будет видеть всё, что я говорю Siri?» Ответ — нет, и вот почему.

Apple использует собственную инфраструктуру Private Cloud Compute (PCC). Схема работы:

  1. Запрос пользователя шифруется на устройстве
  2. Передаётся в облако Apple (не Google) в зашифрованном виде
  3. Apple запускает модель Gemini в изолированной среде — Google не получает доступ к входящим данным
  4. Ответ возвращается на устройство

По словам Apple, это верифицируемая изоляция: независимые исследователи могут проверить, что PCC-серверы действительно не логируют данные. Для российских пользователей это важно: данные не проходят через инфраструктуру Google напрямую.

Что выполняется прямо на устройстве

Часть задач Siri обрабатывает локально — без отправки в облако вообще. Apple Neural Engine в iPhone 16 и новее справляется с:

В облако (и на Gemini) уходит только то, что требует «тяжёлого» интеллекта: анализ длинных документов, сложные вопросы, управление несколькими приложениями одновременно.

Что умеет новая Siri: конкретные функции

On-screen awareness — Siri видит экран

Самое впечатляющее новшество: Siri теперь понимает контекст того, что открыто на экране. Примеры:

Cross-app integration — работа между приложениями

Старая Siri работала в рамках одного приложения. Новая — связывает несколько:

Контекстная память

Благодаря большому контексту Gemini (2 миллиона токенов — примерно 1500 страниц текста), Siri помнит длинные разговоры и учитывает историю. Спросил что-то три реплики назад — она помнит.

Когда это появится и на каких устройствах

Версия iOS Дата Что появляется
iOS 26.5 Май 2026 On-screen awareness, базовая cross-app интеграция
iOS 27 Сентябрь 2026 Полный Gemini-движок, контекстная память, расширенные агентские возможности

Устройства: iPhone 15 Pro и новее получат полный функционал. На более старых — ограниченный набор. iPad Pro M2+, Mac с M3+ тоже в списке.

Важно для российских пользователей: В России Apple Intelligence и новые функции Siri могут оказаться недоступны из-за требований Роскомнадзора к локализации данных. Текущий статус — Apple ведёт переговоры, официальных дат нет.

Что это означает для бизнеса

iPhone как рабочий инструмент становится мощнее

Если ваша команда работает на iPhone, новые возможности Siri — это реальный прирост продуктивности. Конкретные сценарии:

Конкуренция AI-ассистентов обострилась

Теперь в смартфонах сошлись три гиганта:

Ассистент Платформа AI-движок Главная сила
Siri (новая) iOS/macOS Gemini 2.5 Pro Экосистема Apple, конфиденциальность PCC
Google Assistant Android Gemini Ultra Поиск, Google Workspace
Copilot Windows GPT-4o Office 365, корпоративная среда

Для бизнеса это означает: выбор платформы (iOS vs Android vs Windows) теперь напрямую влияет на то, какой AI-ассистент получают сотрудники.

Конфиденциальность корпоративных данных

Если сотрудники используют Siri для работы с внутренними документами — данные проходят через облако Apple. Для компаний с требованиями к конфиденциальности:

Почему это важно за пределами Apple

Сделка Apple-Google — сигнал для всего рынка: даже самые богатые и технологически продвинутые компании покупают AI-компетенции, а не строят с нуля. Apple потратила миллиарды на собственный Apple Intelligence — и всё равно выбрала чужую модель для Siri.

Для предпринимателей вывод прост: не нужно и не выгодно разрабатывать AI-решения с нуля. Правильный выбор готовых инструментов и их интеграция — вот конкурентное преимущество в 2026 году.

Кстати, о том, как выбрать AI-ассистента для задач бизнеса и в чём разница между Claude и ChatGPT — читайте в нашем сравнении: Claude vs ChatGPT для бизнеса.

Итог: что делать прямо сейчас

Новая Siri с Gemini внутри — не просто обновление ОС. Это смена парадигмы: ассистент превращается в агента, который видит экран, понимает контекст и действует через приложения.

Практические шаги:

  1. Проверьте устройства команды — iPhone 15 Pro и новее получат полный функционал в iOS 27
  2. Следите за iOS 26.5 (май 2026) — там появятся первые возможности, попробуйте на практике
  3. Настройте политику данных — если работаете с конфиденциальными документами, пропишите правила через MDM
  4. Обучите команду — голосовые команды с контекстом принципиально отличаются от «Siri, позвони маме»

Источники

Хотите AI-команду для своего бизнеса?

Настраиваем AI-агентов под конкретные задачи: продажи, маркетинг, автоматизация. Без воды — только то, что работает.

Написать в Telegram