Apple анонсировала партнерство с Google для интеграции моделей Gemini в Siri через Apple Intelligence. Это решение позволит Siri обрабатывать сложные запросы на серверах Private Cloud Compute, где развернуты модели с 1,2 триллиона параметров под внутренним названием Apple Foundation Models v10.
Дебют в iOS 26.4
Apple планирует раскрыть результаты партнерства во второй половине февраля 2026 года, вероятно, через бета-версию iOS 26.4. Демонстрация может пройти на крупном мероприятии или в формате закрытого брифа в Нью-Йоркском медиа-офисе компании. Новые возможности Siri включают распознавание контекста экрана, персонализированные знания о пользователе и выполнение действий в приложениях напрямую.
Технические улучшения Siri
Gemini заменит собственные модели Apple, которые отставали в развитии, обеспечивая Siri большую контекстную осведомленность и автономность. В iOS 26.4 Siri сможет взаимодействовать с экранным содержимым, запоминать пользовательские предпочтения и автоматизировать задачи в нативных приложениях. Это реализовано на базе 1,2-триллионной модели v10, оптимизированной для приватных облачных серверов Apple.
Планы на iOS 27
В iOS 27 и macOS 27 внедрят чатбот-подобные функции на моделях Apple Foundation Models v11, приближенных по мощности к Gemini 3. Эти модели потребуют инфраструктуры Google из-за повышенных вычислительных нужд, а переговоры продолжаются. Gurman отмечает, что v11 значительно превосходит v10 по возможностям, включая глубокий анализ и генерацию контента.
Предыстория партнерства
До сделки с Google Apple вела переговоры с Anthropic и OpenAI, но они сорвались: Anthropic требовал миллиарды долларов ежегодно, а OpenAI конкурировал в hardware с Jony Ive. Внутренне топ-менеджмент, включая executives Siri вроде Mike Rockwell, скептически относился к внешним моделям, но судебное решение по поисковому партнерству с Google сняло барьеры. Партнерство официально объявили в начале января 2026 года.
