Apple AI: Курс на локальные нейросети

Apple AI

В преддверии конференции ICLR 2026 в Рио-де-Жанейро компания Apple анонсировала масштабное участие, представив около 60 научных работ и технических демонстраций. Этот шаг подтверждает смену стратегии компании в сторону открытости исследовательского сообщества и фокусировки на локальном исполнении нейросетевых моделей на потребительских устройствах.

Фокус на локальных вычислениях и эффективности

Ключевым направлением исследований Apple остается оптимизация сложных моделей для работы на чипах серии M и A. В отличие от конкурентов, делающих ставку на облачные вычисления, инженеры из Купертино концентрируются на методах квантования и дистилляции моделей. Это позволяет запускать современные большие языковые модели (LLM) и инструменты для работы с графикой непосредственно на iPhone и iPad, обеспечивая приватность данных и минимальные задержки.

Технологический прорыв: Модель SHARP

Одной из самых ожидаемых демонстраций станет работа модели SHARP. Эта технология способна реконструировать фотореалистичные 3D-сцены на основе одного единственного 2D-изображения. В рамках конференции Apple покажет работу SHARP на iPad Pro с чипом M5, где процесс генерации занимает менее одной секунды. Для пользователей планшетов это означает появление новых инструментов в дополненной реальности (AR) и профессиональном дизайне, работающих в реальном времени без обращения к внешним серверам.

Развитие экосистемы MLX и Xcode

Apple продолжает развивать свой open-source фреймворк MLX, созданный специально для машинного обучения на Apple Silicon. На мероприятии будет продемонстрировано локальное исполнение квантованной модели для написания кода прямо внутри среды разработки Xcode на MacBook Pro. Это решение нацелено на разработчиков ПО, позволяя им использовать интеллектуальные подсказки и генерацию кода без необходимости постоянного интернет-соединения и отправки конфиденциального исходного кода в облако.

Представленные исследования закладывают фундамент для функционала следующих версий iOS и iPadOS. Оптимизация моделей компьютерного зрения и обработки естественного языка напрямую влияет на возможности мобильной фотографии, распознавание объектов и работу Siri. Публикация такого количества работ свидетельствует о том, что Apple подготовила аппаратную базу в новых поколениях процессоров для запуска «тяжелых» нейросетевых функций, которые ранее считались невозможными для мобильных платформ.

Подписывайтесь на наш Telegram, VK.
MacNoob - живая помощь с iPhone и MAC
Добавить комментарий

Вы можете подписаться на новые комментарии к статье без комментирования.