Долгое время стратегия Apple в области искусственного интеллекта строилась вокруг концепции «невидимого» ассистента, вшитого в интерфейс операционной системы. Однако, согласно последним инсайдам, в Купертино готовят самый радикальный разворот в истории Siri. С выходом iOS 27 и macOS 27 нас ждет не просто обновление алгоритмов, а появление полноценного автономного приложения Siri, которое изменит саму парадигму взаимодействия пользователя с техникой Apple.
Дизайн и интерфейс: Уход от «пузырей» к чат-боту
Основное изменение, которое заметят пользователи — это трансформация Siri в полноценное пространство для общения, напоминающее интерфейс Messages или популярных чат-ботов вроде ChatGPT и Gemini. Вместо привычной светящейся сферы в нижней части экрана, новое приложение предложит текстовое поле «Search or Ask» (Поиск или вопрос) и историю диалогов.
Интересно, что Apple тестирует интеграцию элементов управления прямо в Dynamic Island. При активации ассистента в верхней части экрана будет появляться аккуратный индикатор «Searching», сигнализирующий о том, что система обрабатывает запрос, используя обновленные нейросетевые модели. Это делает процесс взаимодействия менее навязчивым и более контекстным.
Глубокая системная интеграция и «Agentic AI»
Главное преимущество Apple перед сторонними чат-ботами — доступ к персональному контексту. Новая Siri в составе iOS 27 получит статус полноценного ИИ-агента. Это означает, что она сможет не просто отвечать на вопросы, используя данные из сети, но и совершать многошаговые действия внутри приложений.
Благодаря доступу к почте, сообщениям, заметкам и календарю, Siri сможет анализировать входящую информацию и предлагать автоматизацию рутинных задач. Например, по одной команде она сможет найти детали бронирования в письме, добавить их в календарь и отправить подтверждение в iMessage, не требуя от пользователя открывать каждое приложение по отдельности. Функции «Write with Siri» и «Ask Siri» станут сквозными для всей системы, позволяя генерировать текст или анализировать содержимое экрана в режиме реального времени.
Технологический стек и производительность
Ожидается, что за производительность обновленной Siri будут отвечать модели Apple Foundation Models следующего поколения, обученные с использованием технологий Google Gemini. Это позволит значительно улучшить понимание естественного языка и удерживать нить долгого разговора, чего Siri исторически не хватало.
Для владельцев MacBook на базе чипов Apple Silicon это означает еще большую нагрузку на Neural Engine, так как значительная часть вычислений будет происходить непосредственно на устройстве для обеспечения конфиденциальности. В случаях, требующих огромных вычислительных мощностей, будет задействовано Private Cloud Compute, что сохранит баланс между скоростью работы и защитой данных.
Перспективы на WWDC 2026
Анонс этого амбициозного проекта ожидается на конференции WWDC в июне 2026 года. Переход к формату отдельного приложения — это признание Apple того, что ИИ стал самостоятельной категорией софта, а не просто надстройкой над ОС. Для пользователей iPhone, iPad и Mac это означает переход от простых голосовых команд к полноценному цифровому партнерству, где устройство начинает «понимать» намерения владельца на глубоком уровне.
